¿Hay que temer a la inteligencia artificial?
Distintas cartas abiertas y discursos de importantes personalidades del mundo de la tecnología ofrecen versiones contradictorias sobre el futuro de los sistemas con inteligencia artificial.
De entre todas las revoluciones que vienen para modelar nuestro futuro, la relacionada con la inteligencia artificial (IA) es probablemente la que mayor impacto puede tener. Pero también la que más incertidumbre genera. Las noticias sobre los avances en esta rama científica parecen dar una de cal y otra de arena. Un día se nos informa sobre su uso para prevenir la caza ilegal o detectar infecciones emergentes. Al día siguiente, se nos recuerdan los riesgos de un mal uso de la tecnología.
A estas noticias se suman las cartas abiertas y comunicados de personalidades en desacuerdo como Elon Musk o Bill Gates. Advierten del peligro de emplear IA en la industria armamentística. Y no faltan los escépticos de la disciplina, quienes creen que hay que ser cautos con estas visiones excesivamente apocalípticas o entusiastas. Con tal cantidad de opiniones, ¿cómo se ve afectada la percepción que la sociedad tiene de este ámbito?
Elisabet Roselló opina que todas estas narrativas están calando en los ciudadanos, pero que una gran parte de la sociedad desconoce casi por completo cualquier avance en inteligencia artificial. Esta consultora en innovación estratégica e investigadora de tendencias sociales cree que “la población puede recordar alguna noticia anecdótica que haya aparecido en los informativos de la tele, pero ni sabrán de la existencia de esas cartas abiertas”.
Para Roselló, las polémicas surgidas del uso de la IA “se parecen a las que hace unos años nacieron con la investigación genética. Existían movimientos contrarios como los religiosos, pero la investigación ha seguido adelante siempre dentro de un marco regulatorio que, eso sí, debe definirse con detalle para las IA”. Unos marcos que a su vez deberían reescribirse, ya que según la fundadora de Postfuturear, “no funcionan tal como se diseñaron hace dos siglos. Los actores no estatales como Google o IBM tienen mucho poder y pueden ir más allá de esas regulaciones”.
Grandes compañías que, junto con las universidades, están creando muchos puestos de trabajo relacionados con la inteligencia artificial. La investigación en este ámbito se está viendo fuertemente respaldada por empresas y gobiernos. Según el doctor Francisco R. Villatoro, profesor del departamento de Lenguajes y Ciencias de la Computación en el área de Ciencia de la Computación e Inteligencia Artificial de la Universidad de Málaga, “no hay recortes en investigación en IA, todo lo contrario, hay varios países que cada día apuestan más fuerte por estas tecnologías. Y muchas empresas tecnológicas”. Si existe miedo por el avance de esta tecnología, no parece percibirse en gran parte de la inversión pública y privada. Pero Google no renovó el contrato que les unía al Pentágono a nivel de inteligencia artificial. ¿Un movimiento llevado a cabo para mantener una imagen corporativa alejada del ámbito armamentístico?
En el ICRAC, comité internacional para el control de las armas robóticas, apoyaron la iniciativa de Google con otra carta abierta dirigida a los mandatarios de la empresa. En ella, 1179 investigadores y científicos piden en solidaridad con los más de 3000 empleados de Google que se deje de desarrollar tecnología militar y de almacenar información personal con fines militares. Peter Asaro, uno de los portavoces de la carta del ICRAC, cree que este auge de las cartas abiertas contra el uso armamentístico de la IA viene de que “la población está descubriendo los efectos negativos de esas tecnologías tras muchos años de un optimismo indiscutido”. Según Asaro, “también los trabajadores tecnológicos se dan cuenta de las formas de ser cómplices y se están empezando a organizar para moldear la moral de sus empresas”.
El futuro
Sobre el futuro de la investigación en IA, Asaro es contundente: “parar la investigación en armas autónomas y establecer una normativa sobre su uso. Pueden existir muchos futuros para la investigación en IA, y la autonomía y la elección de objetivos son solo dos de ellos”. Ese sería, según el investigador, un gran paso para transmitir al conjunto de la sociedad que no hay peligros en la evolución de las IA. “También necesitamos una mayor transparencia y responsabilidad en el uso de IA por parte de las grandes empresas”, concluye, “donde dejen claras las asunciones desde las que las construyen o los usos que se les van a dar”.
Con todo, de existir algún miedo hacia la IA entre el grueso de la sociedad, este parece que estará más relacionado a aspectos prácticos del día a día. Como el futuro del trabajo. En ese sentido existen dos agentes relevantes en la forma en que comunicar el efecto de las IA: el World Economic Forum y la Singularity University. “Son entidades que promueven la evolución económica”, afirma Roselló, “pero que pueden pecar de cierta ambigüedad a la hora de comunicar. A veces recurren al show del terror y eso promueve un temor generalizado a perder el trabajo entre las personas menos preparadas”.
Un temor que series y películas no dejan de transmitirnos a través de ficciones especulativas o pura ciencia ficción. Historias a las que tal vez deberíamos prestar tanta atención como a las noticias que nos llegan de centros de investigación o expertos en la materia. “Fíjate qué ideas tan descabelladas e impensables hace una década como la renta universal ya se están poniendo sobre la mesa hoy en día”, dice Guillem López, novelista de ciencia ficción. “La idea de una sociedad en que no haya trabajo para más de la mitad de la población comienza a hacerse palpable. Sin embargo, quizá lo que debería plantearse es el fin del trabajo asalariado y la propiedad privada tal y como los hemos conocido hasta ahora. Ahí es donde la ficción retrata futuros no solo plausibles sino probables y, también, necesarios”.
Por Agencias.