Share

  Por J.G. Shear.

A los escritores de ciencia ficción les encanta hablar sobre sistemas de inteligencia artificial general (AGI) que se vuelven rebeldes, concluyen que los humanos son un peligro y deciden que toda la población de la Tierra debe ser eliminada. En los últimos años, estas preocupaciones han pasado de la ciencia ficción a la ciencia. Luminarias como Stephen Hawking y Elon Musk han expresado su preocupación por el futuro. El difunto profesor Hawking llegó incluso a decir: “El desarrollo de una inteligencia artificial completa podría significar el fin de la raza humana”. Más recientemente, la revista científica David Nield informa: “Los investigadores dicen que será imposible controlar una IA superinteligente. Durante décadas se ha hablado de la idea de que la inteligencia artificial derroque a la humanidad, y en 2021, los científicos emitieron su veredicto sobre si seríamos capaces de controlar una superinteligencia informática de alto nivel. ¿La respuesta? Casi definitivamente no”.

La mayoría de los escenarios de ciencia ficción representan sistemas AGI que se proponen deliberadamente destruir a la humanidad. Émile P. Torres, un historiador del riesgo catastrófico global, cree que es igualmente plausible que AGI pueda acabar con la humanidad accidentalmente. Escribe: “No sólo nos hemos equivocado en cosas que pensábamos que sucederían; La humanidad también tiene una larga historia de asegurarnos incorrectamente que ciertas realidades ahora ineludibles no lo harían. … La expectativa convencional es que la potencia informática en constante crecimiento será una bendición para la humanidad. Pero ¿y si volvemos a equivocarnos? ¿Podría la superinteligencia artificial causarnos un gran daño? ¿Nuestra extinción? Como enseña la historia, nunca digas nunca”. Y añade: “Parece sólo una cuestión de tiempo antes de que las computadoras se vuelvan más inteligentes que las personas. Esta es una predicción de la que podemos estar bastante seguros, porque ya la estamos viendo”.

Las personas con edad suficiente para recordar Mad Magazine también recuerdan al chico de portada ficticio de la publicación, Alfred E. Neuman, cuyo lema era “¿Qué, me preocupa?” La actitud ambivalente de Neuman hacia el riesgo probablemente refleja lo que muchos de nosotros sentimos ante la perspectiva de AGI. ¿Supondrá o no un riesgo para la humanidad? El fallecido Paul Allen, cofundador de Microsoft, dudaba de que alguna vez se creara un sistema de inteligencia artificial general. Sostuvo que desarrollar AGI “requerirá avances imprevisibles y fundamentalmente impredecibles”. Y James Kobielus, evangelista de Big Data de IBM, escribe: “Existe algo parecido a ver demasiada ciencia ficción. Si pasas una cantidad significativa de tiempo inmerso en fantasías distópicas del futuro, es fácil perder el control del aquí y ahora. O, incluso cuando algo de ciencia ficción se basa en futuros alternativos plausibles, es demasiado fácil realizar una extrapolación de salón en cualquier dirección problemática que nos lleve la mente. Uno de los tropos de ciencia ficción más utilizados es el del superinteligente “señor robótico” que, por negligencia o malicia humana, nos ha esclavizado a todos”. 

Laurence B. Siegel, director de investigación Gary P. Brinson de la Fundación de Investigación del Instituto CFA, piensa en la misma línea que Allen. Escribe: “¿La inteligencia artificial general transformará la experiencia del ser humano, abriendo posibilidades de conocimiento, logros y prosperidad que ahora apenas podemos concebir? ¿O es AGI una amenaza existencial para la humanidad, algo que hay que temer y limitar restrictivamente? Erik J. Larson, en un libro fascinante titulado El mito de la inteligencia artificial, dice “ninguna de las dos cosas”. Estoy de acuerdo. La AGI, si alguna vez se logra, será una ilusión creada por computadoras muy rápidas, datos muy grandes y programadores muy inteligentes. La promesa o amenaza de AGI es una exageración. Los tipos menores de IA son reales y hay que tenerlos en cuenta”. El periodista Akshay Kumar cree que AGI no representa una amenaza inminente. Señala: “El miedo a la IA parece estar generalizado, ya que la gente no está segura de lo que la IA es capaz de hacer ni de las repercusiones de implementarla. La realidad es que la IA ya está implementada en múltiples partes de nuestra vida diaria. … La amenaza de la IA podría no ser la amenaza culminante y llena de acción que vemos en las películas. En cambio, podría ser una dependencia de la IA lo que amenaza con llevarnos a la complacencia”. Admito que la complacencia es una preocupación y estoy de acuerdo con Siegel en que es necesario tener en cuenta formas menores de IA.

A pesar de las garantías de que AGI no va a exterminar a la raza humana, el escritor de tecnología Dave McQuilling informa que una encuesta reciente encontró que “el 43,55% [de los encuestados] afirma estar asustado ante la perspectiva de que la IA se vuelva sensible”. La sintiencia técnicamente implica la cualidad de poder experimentar sentimientos. Sin embargo, a menudo se define como autoconciencia. Es esta última definición de sensibilidad la que preocupa a la gente. El personal de Mind Matters informa: “El 9 de febrero de 2022 Ilya Sutskever, cofundador del generador de texto falso OpenAI, hizo una afirmación que resultó espumosa incluso para Twitter: ‘puede ser que las redes neuronales más grandes de la actualidad sean ligeramente conscientes. ‘” Su respuesta a esta afirmación fue: “Bueno, ‘ligeramente consciente’ es como estar ‘ligeramente embarazada’ o ‘ligeramente muerto’”. Más recientemente, Google despidió a un empleado llamado Blake Lemoine por insistir en que su herramienta de inteligencia artificial llamada LaMDA (Language Modelo para aplicaciones de diálogo) era sensible.

En un artículo breve como este, no se ofrece una respuesta concluyente sobre si AGI representa una amenaza para la humanidad. Al mismo tiempo, concluir que tendremos que esperar y ver es a la vez insatisfactorio y peligroso. Como señala Torres, las computadoras están en una rápida trayectoria para volverse más inteligentes que los seres humanos. La palabra del día debe ser “vigilancia”. Torres concluye: “No está claro que la humanidad alguna vez esté preparada para la superinteligencia, pero ciertamente no lo estamos ahora. Con toda nuestra inestabilidad global y nuestra comprensión aún incipiente de la tecnología, agregar superinteligencia artificial (ASI) sería encender una cerilla al lado de una fábrica de fuegos artificiales. La investigación sobre inteligencia artificial debe ralentizarse o incluso detenerse. Y si los investigadores no toman esta decisión, los gobiernos deberían hacerlo por ellos. Algunos de estos investigadores han descartado explícitamente las preocupaciones de que la inteligencia artificial avanzada pueda ser peligrosa. Y puede que tengan razón. Podría resultar que cualquier precaución no sea más que una tontería y que la ASI sea totalmente benigna, o incluso completamente imposible. Después de todo, no se puede predecir el futuro. El problema es: ellos tampoco pueden”.

 


PrisioneroEnArgentina.com

Noviembre 30, 2023


 

Tags: , ,
4 1 vote
Article Rating
Subscribe
Notify of
guest
22 Comments
Newest
Oldest Most Voted
Inline Feedbacks
View all comments
22
0
Would love your thoughts, please comment.x
()
x