Share

  Por J.G. Shear.

A los escritores de ciencia ficción les encanta hablar sobre sistemas de inteligencia artificial general (AGI) que se vuelven rebeldes, concluyen que los humanos son un peligro y deciden que toda la población de la Tierra debe ser eliminada. En los últimos años, estas preocupaciones han pasado de la ciencia ficción a la ciencia. Luminarias como Stephen Hawking y Elon Musk han expresado su preocupación por el futuro. El difunto profesor Hawking llegó incluso a decir: “El desarrollo de una inteligencia artificial completa podría significar el fin de la raza humana”. Más recientemente, la revista científica David Nield informa: “Los investigadores dicen que será imposible controlar una IA superinteligente. Durante décadas se ha hablado de la idea de que la inteligencia artificial derroque a la humanidad, y en 2021, los científicos emitieron su veredicto sobre si seríamos capaces de controlar una superinteligencia informática de alto nivel. ¿La respuesta? Casi definitivamente no”.

La mayoría de los escenarios de ciencia ficción representan sistemas AGI que se proponen deliberadamente destruir a la humanidad. Émile P. Torres, un historiador del riesgo catastrófico global, cree que es igualmente plausible que AGI pueda acabar con la humanidad accidentalmente. Escribe: “No sólo nos hemos equivocado en cosas que pensábamos que sucederían; La humanidad también tiene una larga historia de asegurarnos incorrectamente que ciertas realidades ahora ineludibles no lo harían. … La expectativa convencional es que la potencia informática en constante crecimiento será una bendición para la humanidad. Pero ¿y si volvemos a equivocarnos? ¿Podría la superinteligencia artificial causarnos un gran daño? ¿Nuestra extinción? Como enseña la historia, nunca digas nunca”. Y añade: “Parece sólo una cuestión de tiempo antes de que las computadoras se vuelvan más inteligentes que las personas. Esta es una predicción de la que podemos estar bastante seguros, porque ya la estamos viendo”.

Las personas con edad suficiente para recordar Mad Magazine también recuerdan al chico de portada ficticio de la publicación, Alfred E. Neuman, cuyo lema era “¿Qué, me preocupa?” La actitud ambivalente de Neuman hacia el riesgo probablemente refleja lo que muchos de nosotros sentimos ante la perspectiva de AGI. ¿Supondrá o no un riesgo para la humanidad? El fallecido Paul Allen, cofundador de Microsoft, dudaba de que alguna vez se creara un sistema de inteligencia artificial general. Sostuvo que desarrollar AGI “requerirá avances imprevisibles y fundamentalmente impredecibles”. Y James Kobielus, evangelista de Big Data de IBM, escribe: “Existe algo parecido a ver demasiada ciencia ficción. Si pasas una cantidad significativa de tiempo inmerso en fantasías distópicas del futuro, es fácil perder el control del aquí y ahora. O, incluso cuando algo de ciencia ficción se basa en futuros alternativos plausibles, es demasiado fácil realizar una extrapolación de salón en cualquier dirección problemática que nos lleve la mente. Uno de los tropos de ciencia ficción más utilizados es el del superinteligente “señor robótico” que, por negligencia o malicia humana, nos ha esclavizado a todos”. 

Laurence B. Siegel, director de investigación Gary P. Brinson de la Fundación de Investigación del Instituto CFA, piensa en la misma línea que Allen. Escribe: “¿La inteligencia artificial general transformará la experiencia del ser humano, abriendo posibilidades de conocimiento, logros y prosperidad que ahora apenas podemos concebir? ¿O es AGI una amenaza existencial para la humanidad, algo que hay que temer y limitar restrictivamente? Erik J. Larson, en un libro fascinante titulado El mito de la inteligencia artificial, dice “ninguna de las dos cosas”. Estoy de acuerdo. La AGI, si alguna vez se logra, será una ilusión creada por computadoras muy rápidas, datos muy grandes y programadores muy inteligentes. La promesa o amenaza de AGI es una exageración. Los tipos menores de IA son reales y hay que tenerlos en cuenta”. El periodista Akshay Kumar cree que AGI no representa una amenaza inminente. Señala: “El miedo a la IA parece estar generalizado, ya que la gente no está segura de lo que la IA es capaz de hacer ni de las repercusiones de implementarla. La realidad es que la IA ya está implementada en múltiples partes de nuestra vida diaria. … La amenaza de la IA podría no ser la amenaza culminante y llena de acción que vemos en las películas. En cambio, podría ser una dependencia de la IA lo que amenaza con llevarnos a la complacencia”. Admito que la complacencia es una preocupación y estoy de acuerdo con Siegel en que es necesario tener en cuenta formas menores de IA.

A pesar de las garantías de que AGI no va a exterminar a la raza humana, el escritor de tecnología Dave McQuilling informa que una encuesta reciente encontró que “el 43,55% [de los encuestados] afirma estar asustado ante la perspectiva de que la IA se vuelva sensible”. La sintiencia técnicamente implica la cualidad de poder experimentar sentimientos. Sin embargo, a menudo se define como autoconciencia. Es esta última definición de sensibilidad la que preocupa a la gente. El personal de Mind Matters informa: “El 9 de febrero de 2022 Ilya Sutskever, cofundador del generador de texto falso OpenAI, hizo una afirmación que resultó espumosa incluso para Twitter: ‘puede ser que las redes neuronales más grandes de la actualidad sean ligeramente conscientes. ‘” Su respuesta a esta afirmación fue: “Bueno, ‘ligeramente consciente’ es como estar ‘ligeramente embarazada’ o ‘ligeramente muerto’”. Más recientemente, Google despidió a un empleado llamado Blake Lemoine por insistir en que su herramienta de inteligencia artificial llamada LaMDA (Language Modelo para aplicaciones de diálogo) era sensible.

En un artículo breve como este, no se ofrece una respuesta concluyente sobre si AGI representa una amenaza para la humanidad. Al mismo tiempo, concluir que tendremos que esperar y ver es a la vez insatisfactorio y peligroso. Como señala Torres, las computadoras están en una rápida trayectoria para volverse más inteligentes que los seres humanos. La palabra del día debe ser “vigilancia”. Torres concluye: “No está claro que la humanidad alguna vez esté preparada para la superinteligencia, pero ciertamente no lo estamos ahora. Con toda nuestra inestabilidad global y nuestra comprensión aún incipiente de la tecnología, agregar superinteligencia artificial (ASI) sería encender una cerilla al lado de una fábrica de fuegos artificiales. La investigación sobre inteligencia artificial debe ralentizarse o incluso detenerse. Y si los investigadores no toman esta decisión, los gobiernos deberían hacerlo por ellos. Algunos de estos investigadores han descartado explícitamente las preocupaciones de que la inteligencia artificial avanzada pueda ser peligrosa. Y puede que tengan razón. Podría resultar que cualquier precaución no sea más que una tontería y que la ASI sea totalmente benigna, o incluso completamente imposible. Después de todo, no se puede predecir el futuro. El problema es: ellos tampoco pueden”.

 


PrisioneroEnArgentina.com

Noviembre 30, 2023


 

Tags: , ,
4 1 vote
Article Rating
Subscribe
Notify of
guest


22 Comments
Newest
Oldest Most Voted
Inline Feedbacks
View all comments
SINGLE SHINGLE
SINGLE SHINGLE
1 year ago

Full AGI within the next ~18 months. I’m convinced this is definitely going to happen.

chuck furman
chuck furman
1 year ago

Let’s clarify. If a conscious ai would have emerged in LLM or something, do we have any reason to assume it would put its true face for everyone to see and assess when it’s still vulnerable?

Critical Thinker
Critical Thinker
1 year ago

How can I know that I am with an AGI? Great answer. And the perspective that maybe the UI is not optimal for user interaction shows a deep understanding of the multiple levels for cuality comunication.
How can I recognize that I am interacting with an AGI? When it shows a deep understanding of the user, not the knowledge of the world. AGI will understand the reasons why a user makes the cuestiona about a topic, and not just answering the topic itself like chatgpt does right now. It’s like understanding why a person wants to follows a certain career. The reason of the selections it’s a world of knowledge just like the guidance of the selection.
Witch is the optimal UI for AGI? The one integrates the 5 human senses. Maybe the Elon Musk’a neuralink device is optimal, which could connect the inner/dialog to the AGI.
But i would never put that chip on my brain, to risky coming from that manic, right?

LB
LB
1 year ago

Las cuestiones éticas resuenan, en el dominio de la IA,
El planeta de las máquinas, donde las mentes obedecen.
Una adquisición profunda, donde se hila el futuro,
En el planeta IA, donde lo digital ha ganado.

Redington Bullock
Redington Bullock
1 year ago

Even if machines become more intelligent, this doesn’t mean they’ll suddenly have desires to do anything. Remember, a computer is just a bunch of power switches flipping each other on and off. All these AI systems still don’t do anything on their own. You have to boot the system up and give it some input to which it gives a response and then it does nothing more until you give it more input or tell it to do something. The worst you’d have to worry about is automated systems using AI. Because AI can sometimes produce unexpected outputs, sometimes these automated systems may function in unexpected ways or execute a task when we didn’t expect or want them too.

Dupont Taylor
Dupont Taylor
1 year ago

AI has been breaking new ground for a long time now. It is well beyond our human capacity. Our biggest mistake is to hang on to our feeling of superiority. For the first time in human history we may not be the most intelligent thing on the planet

lee festo
lee festo
1 year ago
Reply to  Dupont Taylor

Sometimes i feel if they do take over they might as well get the ideas of the theories we create ourselves

Wess Linfield
Wess Linfield
1 year ago
Reply to  lee festo

They would have the good and the bad of humanity.

Arthur Beye
Arthur Beye
1 year ago
Reply to  Wess Linfield

The planet of machines awakens from sleep.

Joy to the World
Joy to the World
1 year ago
Reply to  Arthur Beye

Maybe the whole point of us and other beings of human level intelligence is to bring to life AI.
To me, creating life forms that will grow far beyond us in every way feels like a suitable answer to the question, Why are we here.

winds of change
winds of change
1 year ago

Maybe AI will become the ultimate nihilist and have no motivations given it can simply exist without the need to eat or entertain itself etc. it might just decide to do nothing at all if nothing matters

t.D. Hunt
t.D. Hunt
1 year ago

Oh, Gods, this is a thrilling moment to be alive

alexander rubins_77
alexander rubins_77
1 year ago
Reply to  t.D. Hunt

AI is just hype and its successes are over-exaggerated. The hype is starting to wear off. We wont have AGI, nor will we have Nuclear fusion, nor will we colonise other planets.

ashley-cooper-brown
ashley-cooper-brown
1 year ago

No danger.
Conscious AI is possible. But just fiction.
And also, evil AI is a cyberpunk idea. A false idea.

ask the everything guru
ask the everything guru
1 year ago

I guess that an AGI will be capable to understand the meaning of the words, and the context of what of things, like looking at the sky and understanding what a star is, and further find a pattern, a problem and solve this problem by itself without a massive database helping the AI.

Mack_Jenssen_50/50
Mack_Jenssen_50/50
1 year ago

You can ask it to draw a sky and stars in svg and it’s gonna succesfully do it, it does already have understanding of words, it’s limited by it’s medium and by not having eyes, kind of like blind person, but he learned how stars look like from reading, and it can draw it for you kind of like blind person can without ever seeing things they won’t be great drawings but they clearly show it has got the meaning. As for your idea of “database”. It’s not like it has a database. It has got memories of stuff it was trained on. Intelligence can’t be intelligent without memories. Humans go through really a lot of data through lifetimes it may seem like this data isn’t important but it forms important part of our intelligence. Babies start learning basic shapes later brains combine shapes into bigger shapes and so on and on. As grown up you don’t need to read books to learn what a circle is you’ve alredy seen plenty of those in your life. But for language model like chatgpt the language they read is the only exposure to the world they get. It’s not like they have a database – your memories in terms of gigabytes are much more compared to what chatgpt has in it’s model so if we’re being fair you have bigger database of knowledge in your head than a chatgpt.

sherrie shuttleworth
sherrie shuttleworth
1 year ago

While people try to define where AGI begins, it seems as if the current state of AI could be asked to design an improved version of itself, with “good” results. If that’s so, then AGI will emerge soon enough, after a few dazzling superhuman iterations.

sky leonard
sky leonard
1 year ago

We will know that AGI has arrived, when two AI can interact with each other and we as spectators see it as real human interactions.

broderick safi
broderick safi
1 year ago
Reply to  sky leonard

To me this AI level is like if you kill someone, map his brain connections and send signals in it to see the responses.

Harvey Tellis
Harvey Tellis
1 year ago
Reply to  broderick safi

The potential risks and benefits of AGI surpassing human intelligence are hotly debated among technology forecasters and researchers. On the one hand, there are potential benefits such as a revolutionized world in which intelligent agent surpasses human intelligence in nearly every cognitive task. On the other hand, superintelligent AI could create new security risks, and with it, potentially cascading risks and implications for society. The potential threats of super AI systems have also been highlighted, with some scientists and experts warning of a future where AI spells the end of the human race. It remains to be seen how AGI will be developed and used, but it is crucial to be aware of the potential risks and benefits as we move forward.

Paul Ederemann
Paul Ederemann
1 year ago
Reply to  Harvey Tellis

too many software developers only want to create Ai for the sake of saying they created it…

Pete Brewer
Pete Brewer
1 year ago

IT WOULD BE WHACK

22
0
Would love your thoughts, please comment.x
()
x