La perspectiva ética no es una cortapisa para el avance de la Inteligencia Artificial
Somos seres en simbiosis con la tecnología. Con las nuevas tecnologías disruptivas debemos exigir a los poderes públicos una pedagogía social importante porque el desconocimiento produce miedo y ese miedo provoca reacciones de rechazo. Hay mucha mitología, es muy importante que la gente sepa qué es lo que están haciendo los investigadores de la Inteligencia Artificial (IA).
Txetxu Ausín científico titular del Instituto de Filosofía del CSIC, participa en la “I Jornada sobre Inteligencia Artificial, ética y Legislación” y parte de que hoy en día, todas nuestras interacciones están atravesadas por la tecnología. Nos estamos constituyendo como seres en simbiosis con las tecnologías. El teléfono móvil es nuestra extensión tanto física como cognitiva. “La Inteligencia artificial se hace en simbiosis entre las personas y las máquinas. Y deberíamos tener claro cuáles son nuestros derechos y libertades. A eso le llamo un nuevo pacto tecno-social, que debe implicar a ciudadanos, empresas e instituciones. La tecnología ya ha cambiado radicalmente nuestras vidas
En torno a la IA hay que hacer una serie de reflexiones éticas que tienen que ver con la seguridad, con la promoción de la igualdad y la justicia porque hay que delimitar aspectos difíciles como la atribución de responsabilidad en la medida que se toman decisiones entre agentes humanos y máquinas. “Son decisiones que pueden afectar a los derechos y libertades de las personas, que pueden estar condicionadas por un algoritmo. De ninguna manera se puede dejar a la máquina que tome decisiones sin control humano, sólo puede ser un complemento. “Tiene que existir siempre- ese botón rojo- que pulse el ser humano”
Ante la progresiva automatización de nuestras relaciones con la administración, la banca, el mundo de los seguros etc. Tenemos que tener muy claros los sesgos que puede incorporar el algoritmo. Toda tecnología incluye valores que habría que alinearlos con la perspectiva ética de la sociedad. “El desarrollo de los algoritmos tiene que ser una tarea plural y multidisciplinar. No se puede dejar solo en manos de los ingenieros este proceso. La IA no sólo incorpora sesgos en los datos, sino que puede multiplicarlos y provocar efectos negativos mayores. “Desde el mismo diseño se deben incorporar criterios éticos que intenten minimizar los sesgos y otros posibles daños. Las empresas tecnológicas tienen que estar interesadas porque ello redunda en la aceptación social, en la confianza en la tecnología y en su apropiación. Eso no quita que existan también entidades de control desde los responsables públicos”
La Comisión europea recientemente dibujó diferentes áreas de riesgo y los mecanismos de control para la distribución y comercialización de estos productos. Establece 4 categorías desde “riesgo inadmisible” hasta “riesgo mínimo” prohibiendo la identificación biométrica en espacios públicos excepto prevención de terrorismo o de localización de sospechosos de delito grave. “La Comisión europea está haciendo una seria reflexión para que la IA esté alineada con determinados valores. En España- decía Txetxu Ausín hemos pedido una moratoria en esta identificación biométrica masiva en los lugares públicos para garantizar que no se dé un uso abusivo y que se asegure un control de los algoritmos incorporados para no acabar en casos de discriminación.”
“La injusticia algorítmica consiste en todos los perjuicios, todas las consecuencias negativas que se puedan generar por el uso de la IA”
Sólo un 25% de los puestos relevantes de la IA está en manos de las mujeres. “la brecha de género en el diseño y desarrollo de la IA es clarísima. La inmensa mayoría de los programadores son varones, blancos, occidentales
Geopolítica de la IA
Existen 3 modelos: el chino, el de la vigilancia y control de la ciudadanía que llega a medirse en puntos; el modelo libertario y desregulado y neoliberal norteamericano vinculado a las grandes empresas de internet y el modelo europeo que aspira a un equilibrio basado en una suerte de pacto tecno-social entre ciudadanía, empresas y estados para el bien común.
El reglamento propuesto por la CE, deja al margen los sistemas de IA utilizados para el manejo de armas y otros propósitos militares como las armas militares autónomas. “Eso sí que da miedo” reconocía Txetxu Ausín, y “hay iniciativas desde el mundo de la investigación científica y expertos que trabajamos en este ámbito para establecer una prohibición para el uso de las armas letales autónomas.” Se abusa mucho del concepto de “autonomía” hablando de coches, por ejemplo, pero “no deja de ser una cortina de humo porque al final hay seres humanos detrás; son vehículos sin conductor per que de algún modo están teledirigidos. Estamos exigiendo una prohibición y estricto control en el desarrollo de este tipo de artefactos. Es uno de los enormes riesgos de lo que puede ser la inteligencia artificial en este caso en el manejo de armas.
Al margen de mitologías, lo que puede ser crucial en un conflicto es el control de los programas. “La ciberguerra se basará en el control de estructuras críticas. Control de oleoductos- como el reciente caso de Colonial Pipeline en USA, control de aeropuertos u hospitales y otras infraestructuras críticas”. Por eso el gran reto es el de la ciberseguridad, que sería también un imperativo ético para impedir el daño (no maleficencia).
Somos seres en simbiosis con la tecnología.
La interrelación entre sistemas informáticos y sistema nervioso del ser humano existe. “Nuestro cuerpo se ha convertido en una plataforma tecnológica. No se necesitan tecnologías invasivas, existen ya medicamentos digitales que incorporan microchips para intervenir en algunas patologías y las propias pulseras que recogen enormes cantidades de datos mientras paseamos así como otros “wearables” (ropas y dispositivos que nos acompañan y que recogen todo tipo de datos biométricos).
“Se abren enormes expectativas, pero también importantes riesgos que tienen que ser contemplados en los llamamos neuroderechos humanos para proteger nuestra privacidad mental, integridad cognitiva y continuidad psicológica (la percepción del individuo de su propia identidad también puede verse afectada) como últimos reductos de nuestra libertad y la conciencia”
Se trata de proteger nuestra “autodeterminación mental” de esas intervenciones que se pueden dar de una manera muy directa entre ordenadores y el sistema nervioso de las personas. En esta línea, investigador Rafael Yuste director del proyecto BRAIN de la Universidad de Columbia plantea una plataforma de 5 neuroderechos: a la identidad personal; al libre albedrío; la privacidad mental; derecho al acceso a la mejora cerebral y derecho a la protección contra sesgos.
Los riesgos, en primera instancia, pueden ser modificaciones no consensuadas con el paciente o que se introduzcan intervenciones maliciosas por parte de terceros- hackeadores del cerebro / brainhacking- “Hay que establecer condiciones de cautela ante estas posibilidades”
En la jornada Kutxa Fundazioa presentaba el Pacto Pro Data Gipuzkoa Ituna fruto de las reflexiones realizadas por diferentes agentes del mundo de la investigación; servicios sociales, asociaciones, representantes de empresas tecnológicas, del mundo de la biomedicina durante los últimos meses, sobre las posibilidades que nos ofrecen los datos pero buscando un uso socialmente responsable. Comprender estas tecnologías para no tener miedos infundados. Txetxu Ausín como coordinador del pacto remarcaba tres retos: pedagogía, criterios éticos y la creación de una plataforma que permitiera compartir esa ingente información; donar datos pero sabiendo para qué se donan y sabiendo que contribuyen al bien común. Establecer una soberanía ciudadana sobre los datos frente a los feudalismos de las grandes corporaciones tecnológicas que lo dominan todo.
La perspectiva ética no es una cortapisa para el avance científico-técnico. Los propios investigadores y la sociedad son los que tienen que reflexionar conjunta y colaborativamente sobre los avances que se van desarrollando y sobre su uso ético y socialmente responsable.