Hace tiempo Elon Musk el presidente de Tesla, afirmaba que «la Inteligencia artificial puede acabar con la Humanidad».

Más allá del alarmismo de esta afirmación, es cierto que la creación de sistemas autónomos capaces de realizar tareas complejas, algunas de las cuales se pensaban reservadas en otro tiempo exclusivamente a la inteligencia natural (como calcular y predecir, aprender y adaptarse a situaciones cambiantes, o reconocer y clasificar objetos) supone todo un desafío a los límites éticos y técnicos que han de regir la inteligencia artificial (IA).

Por analogía con la inteligencia humana y por la naturaleza inmaterial de las tareas que realizan, a estos sistemas tan diversos se les conoce con el término general de inteligencia artificial.

La inteligencia artificial es un importante avance científico y tecnológico que puede generar considerables beneficios sociales al mejorar las condiciones de vida, la salud y los cuidados, la justicia, crear riqueza, aumentar la eficiencia y la eficacia de los procesos, mejorar la seguridad pública o controlar el impacto de la actividad humana sobre el medio ambiente y el clima.

El desarrollo de la inteligencia artificial, sin embargo, presenta grandes riesgos sociales y desafíos éticos. De hecho, las máquinas inteligentes pueden restringir las elecciones de individuos y grupos, impactar en la organización del trabajo y el mercado laboral a través de la reducción de empleos y una nueva estructura de la división del trabajo, influir en la vida política, atentar a derechos fundamentales como la privacidad y exacerbar las desigualdades económicas y sociales.

Por eso, si bien no hay progreso científico ni vida social libre de riesgos, la ética y la regulación en el ámbito de la inteligencia artificial presentan nuevos desafíos. La frontera entre el uso de la técnica y la técnica (tecnología) en si misma interfieren más que nunca. El uso de algoritmos y de big data en los procesos de automatización y la toma de decisiones puede tener un impacto significativo en la vida de las personas. El alto nivel de retroacción de las tecnologías ligadas a la inteligencia artificial, hace que éstas adquieran progresivamente más autonomía técnica y en consecuencia, aumente su capacidad de acción y decisión dentro de los parámetros establecidos por los algoritmos.

Los intentos de regular la robótica se remontan a 1940 cuando Asimov y John W. Campbell desarrollaron las tres leyes de la robótica (Leyes Asimov). Estas leyes son, a grandes rasgos, una serie de instrucciones que todo aparato robótico debe cumplir para proteger a los humanos.

  1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
  3. Debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

A estas leyes le siguió en 1976 la Ley Cero (‘Zeroth law‘ en inglés), que dictaba que ‘Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño’. Tanto la ley Cero como las de Asimov son muy claras, y aunque pueden considerarse como una premisa básica, con la llegada de la Inteligencia Artificial necesitan una actualización para abordar un contexto mucho más complejo.

En este contexto, el principal cometido de la futura regulación en el desarrollo de la inteligencia artificial es que esta se ponga al servicio del ser humano, promoviendo un progreso social inclusivo y equitativo, y evitando también posiciones supremacistas de unos individuos frente otros y situaciones de abuso y manipulación.

No obstante la necesidad de regular los futuros impactos de la inteligencia artificial, las asimetrías en su conocimiento y la sensibilización sobre sus impactos entre la sociedad, los expertos, las autoridades gubernamentales y la industria; el objetivo de no mermar la innovación y la competitividad de un sector todavía en fase incipiente en muchos Estados; la falta de flexibilidad y agilidad de los mecanismos y procesos normativos; y la distinta capacidad de acción de los grupos de interés afectados, han desembocado en un amplio cuerpo de declaraciones de expertos y de sectores de la industria, que suponen un primer paso hacia el establecimiento de unos principios éticos consensuados y unas directrices mínimas para la futura regulación del sector.

Comenzamos en Agora una serie dedicada a los desafíos de la Inteligencia Artificial para la ética, la responsabilidad social y la organización del trabajo y las empresas. Abordaremos no sólo los problemas éticos, técnicos y regulatorios fundamentales que subyacen a la generalización de la inteligencia artificial en la vida humana, sino que haremos un recorrido por las principales iniciativas que están surgiendo, para bien y para mal, en el ámbito de la empresa, las aplicaciones técnicas y los principales dilemas a los que nos enfrentamos en el ámbito de las armas, la privacidad, la desigualdad, el empleo o su aplicación a la justicia o a la información.

Queremos generar así un amplio debate al que todos y todas estáis invitados a participar enviando vuestros artículos y comentarios a Agora.