Una pregunta NECESARIA EN ESTA INQUIETANTE ÉPOCA EN QUE la Inteligencia Artificial ACECHA NUESTROS PASOS DIGITALES




La vida de Elaine Herzberg no había sido fácil. A los 15 años dio a luz a su primer hijo. A los 18, al segundo. Tres veces se casó. Durante décadas tuvo problemas con las drogas y con encontrar un lugar donde vivir, después de pasar más de un año en la cárcel. Las calles de Tempe –suburbio de Phoenix, en Arizona, Estados Unidos– eran el hogar de esta mujer de 49 años, a quien sus amigos llamaban “Elle” y que iba a todas partes con su bicicleta. Aquel 18 de marzo, alrededor de las 10 de la noche, segundos después de poner un pie en la calle, vio una luz enceguecedora y sintió el golpe. El coche autónomo Volvo XC90 de Uber, que iba a 65 kilómetros por hora, la detectó, pero no se detuvo. Elle fue trasladada a un hospital local, donde murió a causa de las heridas. No es el primer suceso de este tipo en el que se ve involucrado un vehículo autónomo, pero sí la primera muerte atribuida a un automóvil que se conduce solo. Este incidente recuerda a la muerte de la astrónoma irlandesa Mary Ward, en agosto de 1869, a quien atropelló un automóvil de vapor experimental construido por sus primos y hoy es considerada la primera víctima de un vehículo motorizado. Las consecuencias de la muerte de Elaine fueron inmediatas. El estado de Arizona suspendió las pruebas de vehículos de conducción automática de Uber. Fue una decisión sorprendente, sobre todo porque, hasta el momento, las regulaciones en Estados Unidos han sido laxas, pues se teme que la intervención pueda sofocar la innovación en esta nueva tecnología; asimismo, fabricantes de automóviles, como Ford, General Motors, Uber y Google, llevan invertidos miles de millones de dólares. Las críticas llovieron no sólo sobre esta tecnología aún experimental, sino sobre el cada vez más extenso campo de la Inteligencia Artificial (IA). A medida que los sistemas de IA se han integrado en más productos y servicios e, incluso, han alimentado las pesadillas de series distópicas como Black Mirror y demás historias que funcionan como advertencias, las empresas y el público han comenzado a lidiar con sus efectos adversos. Además, se ha empezado a formular una pregunta cada vez más urgente y pertinente: ¿Qué nos define como seres humanos en esta nueva e inquietante era?



Principios éticos de la investigación en IA


En enero de 2017 tuvo lugar la Conferencia de Asilomar sobre IA en California, organizada por el Future of Life Institute. Más de cien investigadores –entre ellos Elon Musk, físico, inventor y fundador de Open AI– se reunieron para abordar y formular los principios éticos de una IA beneficiosa. Estos son:

1.


El objetivo de la investigación de IA debe ser crear inteligencia beneficiosa.

2.


Las inversiones en IA deben ir acompañadas de financiación para garantizar su uso beneficioso.

3.


Debe haber un intercambio constructivo y saludable entre los investigadores de IA y los responsables políticos.

4.


Debe fomentarse una cultura de cooperación, confianza y transparencia entre investigadores y desarrolladores de IA.

5.


Los desarrolladores de sistemas de IA deben cooperar para evitar el recorte de las normas de seguridad.

6.


Los sistemas de IA deben ser seguros durante toda su vida operativa.

7.


Si un sistema de IA causa daño, debería ser posible determinar por qué.

8.


La participación de una IA en la toma de decisiones judiciales debe proporcionar una explicación auditable humana.

9.

Los constructores de sistemas de IA avanzados son partes interesadas en las implicaciones morales de su uso.

10.


Los sistemas de IA deben diseñarse para que puedan alinearse con los valores humanos a lo largo de su operación.

11.


La IA debe diseñarse para que sean compatible con los ideales de dignidad humana.

12.


Debemos tener derecho a acceder, administrar y controlar datos que genera la IA.

13.


La aplicación de IA a los datos personales no debe restringir injustificadamente la libertad real o percibida de las personas.

14.


Las tecnologías de IA deberían beneficiar y capacitar a tantas personas como sea posible.

15.


La prosperidad económica creada por IA debe compartirse ampliamente, en beneficio de toda la humanidad.

16.


Debemos elegir cómo y si delegamos decisiones a la IA, para lograr los objetivos elegidos por el ser humano.

17.


El poder conferido por el control de la IA debe respetar y mejorar, en lugar de subvertir, los procesos cívicos de los que depende la salud de la sociedad.

18.


Se debe evitar una carrera armamentista en armas autónomas letales.

19.


Debemos evitar suposiciones con respecto a los límites de las capacidades futuras de IA.

20.


La IA puede representar un cambio en la historia de la Tierra; debe manejarse con recursos proporcionales.

21.


Los riesgos que plantea la IA deben estar sujetos a esfuerzos de mitigación de acuerdo con el impacto esperado.

22.


Los sistemas de IA autorreplicables deben estar sujetos a estrictas medidas de seguridad y control.

23.


La superinteligencia sólo debe desarrollarse al servicio de ideales éticos ampliamente compartidos y en beneficio de toda la humanidad en lugar de un Estado u organización.