A los escritores de ciencia ficción les encanta hablar sobre sistemas de inteligencia artificial general (AGI) que se vuelven rebeldes, concluyen que los humanos son un peligro y deciden que toda la población de la Tierra debe ser eliminada. En los últimos años, estas preocupaciones han pasado de la ciencia ficción a la ciencia. Luminarias como Stephen Hawking y Elon Musk han expresado su preocupación por el futuro. El difunto profesor Hawking llegó incluso a decir: “El desarrollo de una inteligencia artificial completa podría significar el fin de la raza humana”. Más recientemente, la revista científica David Nield informa: “Los investigadores dicen que será imposible controlar una IA superinteligente. Durante décadas se ha hablado de la idea de que la inteligencia artificial derroque a la humanidad, y en 2021, los científicos emitieron su veredicto sobre si seríamos capaces de controlar una superinteligencia informática de alto nivel. ¿La respuesta? Casi definitivamente no”.
La mayoría de los escenarios de ciencia ficción representan sistemas AGI que se proponen deliberadamente destruir a la humanidad. Émile P. Torres, un historiador del riesgo catastrófico global, cree que es igualmente plausible que AGI pueda acabar con la humanidad accidentalmente. Escribe: “No sólo nos hemos equivocado en cosas que pensábamos que sucederían; La humanidad también tiene una larga historia de asegurarnos incorrectamente que ciertas realidades ahora ineludibles no lo harían. … La expectativa convencional es que la potencia informática en constante crecimiento será una bendición para la humanidad. Pero ¿y si volvemos a equivocarnos? ¿Podría la superinteligencia artificial causarnos un gran daño? ¿Nuestra extinción? Como enseña la historia, nunca digas nunca”. Y añade: “Parece sólo una cuestión de tiempo antes de que las computadoras se vuelvan más inteligentes que las personas. Esta es una predicción de la que podemos estar bastante seguros, porque ya la estamos viendo”.
Las personas con edad suficiente para recordar Mad Magazine también recuerdan al chico de portada ficticio de la publicación, Alfred E. Neuman, cuyo lema era “¿Qué, me preocupa?” La actitud ambivalente de Neuman hacia el riesgo probablemente refleja lo que muchos de nosotros sentimos ante la perspectiva de AGI. ¿Supondrá o no un riesgo para la humanidad? El fallecido Paul Allen, cofundador de Microsoft, dudaba de que alguna vez se creara un sistema de inteligencia artificial general. Sostuvo que desarrollar AGI “requerirá avances imprevisibles y fundamentalmente impredecibles”. Y James Kobielus, evangelista de Big Data de IBM, escribe: “Existe algo parecido a ver demasiada ciencia ficción. Si pasas una cantidad significativa de tiempo inmerso en fantasías distópicas del futuro, es fácil perder el control del aquí y ahora. O, incluso cuando algo de ciencia ficción se basa en futuros alternativos plausibles, es demasiado fácil realizar una extrapolación de salón en cualquier dirección problemática que nos lleve la mente. Uno de los tropos de ciencia ficción más utilizados es el del superinteligente “señor robótico” que, por negligencia o malicia humana, nos ha esclavizado a todos”.
Laurence B. Siegel, director de investigación Gary P. Brinson de la Fundación de Investigación del Instituto CFA, piensa en la misma línea que Allen. Escribe: “¿La inteligencia artificial general transformará la experiencia del ser humano, abriendo posibilidades de conocimiento, logros y prosperidad que ahora apenas podemos concebir? ¿O es AGI una amenaza existencial para la humanidad, algo que hay que temer y limitar restrictivamente? Erik J. Larson, en un libro fascinante titulado El mito de la inteligencia artificial, dice “ninguna de las dos cosas”. Estoy de acuerdo. La AGI, si alguna vez se logra, será una ilusión creada por computadoras muy rápidas, datos muy grandes y programadores muy inteligentes. La promesa o amenaza de AGI es una exageración. Los tipos menores de IA son reales y hay que tenerlos en cuenta”. El periodista Akshay Kumar cree que AGI no representa una amenaza inminente. Señala: “El miedo a la IA parece estar generalizado, ya que la gente no está segura de lo que la IA es capaz de hacer ni de las repercusiones de implementarla. La realidad es que la IA ya está implementada en múltiples partes de nuestra vida diaria. … La amenaza de la IA podría no ser la amenaza culminante y llena de acción que vemos en las películas. En cambio, podría ser una dependencia de la IA lo que amenaza con llevarnos a la complacencia”. Admito que la complacencia es una preocupación y estoy de acuerdo con Siegel en que es necesario tener en cuenta formas menores de IA.
A pesar de las garantías de que AGI no va a exterminar a la raza humana, el escritor de tecnología Dave McQuilling informa que una encuesta reciente encontró que “el 43,55% [de los encuestados] afirma estar asustado ante la perspectiva de que la IA se vuelva sensible”. La sintiencia técnicamente implica la cualidad de poder experimentar sentimientos. Sin embargo, a menudo se define como autoconciencia. Es esta última definición de sensibilidad la que preocupa a la gente. El personal de Mind Matters informa: “El 9 de febrero de 2022 Ilya Sutskever, cofundador del generador de texto falso OpenAI, hizo una afirmación que resultó espumosa incluso para Twitter: ‘puede ser que las redes neuronales más grandes de la actualidad sean ligeramente conscientes. ‘” Su respuesta a esta afirmación fue: “Bueno, ‘ligeramente consciente’ es como estar ‘ligeramente embarazada’ o ‘ligeramente muerto’”. Más recientemente, Google despidió a un empleado llamado Blake Lemoine por insistir en que su herramienta de inteligencia artificial llamada LaMDA (Language Modelo para aplicaciones de diálogo) era sensible.
En un artículo breve como este, no se ofrece una respuesta concluyente sobre si AGI representa una amenaza para la humanidad. Al mismo tiempo, concluir que tendremos que esperar y ver es a la vez insatisfactorio y peligroso. Como señala Torres, las computadoras están en una rápida trayectoria para volverse más inteligentes que los seres humanos. La palabra del día debe ser “vigilancia”. Torres concluye: “No está claro que la humanidad alguna vez esté preparada para la superinteligencia, pero ciertamente no lo estamos ahora. Con toda nuestra inestabilidad global y nuestra comprensión aún incipiente de la tecnología, agregar superinteligencia artificial (ASI) sería encender una cerilla al lado de una fábrica de fuegos artificiales. La investigación sobre inteligencia artificial debe ralentizarse o incluso detenerse. Y si los investigadores no toman esta decisión, los gobiernos deberían hacerlo por ellos. Algunos de estos investigadores han descartado explícitamente las preocupaciones de que la inteligencia artificial avanzada pueda ser peligrosa. Y puede que tengan razón. Podría resultar que cualquier precaución no sea más que una tontería y que la ASI sea totalmente benigna, o incluso completamente imposible. Después de todo, no se puede predecir el futuro. El problema es: ellos tampoco pueden”.
♦ Elon Musk ha comentado las críticas del presidente [...]
41vote
Article Rating
Subscribe
22 Comments
Newest
OldestMost Voted
Inline Feedbacks
View all comments
SINGLE SHINGLE
1 year ago
Full AGI within the next ~18 months. I’m convinced this is definitely going to happen.
chuck furman
1 year ago
Let’s clarify. If a conscious ai would have emerged in LLM or something, do we have any reason to assume it would put its true face for everyone to see and assess when it’s still vulnerable?
Critical Thinker
1 year ago
How can I know that I am with an AGI? Great answer. And the perspective that maybe the UI is not optimal for user interaction shows a deep understanding of the multiple levels for cuality comunication. How can I recognize that I am interacting with an AGI? When it shows a deep understanding of the user, not the knowledge of the world. AGI will understand the reasons why a user makes the cuestiona about a topic, and not just answering the topic itself like chatgpt does right now. It’s like understanding why a person wants to follows a certain career. The reason of the selections it’s a world of knowledge just like the guidance of the selection. Witch is the optimal UI for AGI? The one integrates the 5 human senses. Maybe the Elon Musk’a neuralink device is optimal, which could connect the inner/dialog to the AGI. But i would never put that chip on my brain, to risky coming from that manic, right?
LB
1 year ago
Las cuestiones éticas resuenan, en el dominio de la IA, El planeta de las máquinas, donde las mentes obedecen. Una adquisición profunda, donde se hila el futuro, En el planeta IA, donde lo digital ha ganado.
Redington Bullock
1 year ago
Even if machines become more intelligent, this doesn’t mean they’ll suddenly have desires to do anything. Remember, a computer is just a bunch of power switches flipping each other on and off. All these AI systems still don’t do anything on their own. You have to boot the system up and give it some input to which it gives a response and then it does nothing more until you give it more input or tell it to do something. The worst you’d have to worry about is automated systems using AI. Because AI can sometimes produce unexpected outputs, sometimes these automated systems may function in unexpected ways or execute a task when we didn’t expect or want them too.
AI has been breaking new ground for a long time now. It is well beyond our human capacity. Our biggest mistake is to hang on to our feeling of superiority. For the first time in human history we may not be the most intelligent thing on the planet
Maybe the whole point of us and other beings of human level intelligence is to bring to life AI. To me, creating life forms that will grow far beyond us in every way feels like a suitable answer to the question, Why are we here.
Maybe AI will become the ultimate nihilist and have no motivations given it can simply exist without the need to eat or entertain itself etc. it might just decide to do nothing at all if nothing matters
AI is just hype and its successes are over-exaggerated. The hype is starting to wear off. We wont have AGI, nor will we have Nuclear fusion, nor will we colonise other planets.
I guess that an AGI will be capable to understand the meaning of the words, and the context of what of things, like looking at the sky and understanding what a star is, and further find a pattern, a problem and solve this problem by itself without a massive database helping the AI.
You can ask it to draw a sky and stars in svg and it’s gonna succesfully do it, it does already have understanding of words, it’s limited by it’s medium and by not having eyes, kind of like blind person, but he learned how stars look like from reading, and it can draw it for you kind of like blind person can without ever seeing things they won’t be great drawings but they clearly show it has got the meaning. As for your idea of “database”. It’s not like it has a database. It has got memories of stuff it was trained on. Intelligence can’t be intelligent without memories. Humans go through really a lot of data through lifetimes it may seem like this data isn’t important but it forms important part of our intelligence. Babies start learning basic shapes later brains combine shapes into bigger shapes and so on and on. As grown up you don’t need to read books to learn what a circle is you’ve alredy seen plenty of those in your life. But for language model like chatgpt the language they read is the only exposure to the world they get. It’s not like they have a database – your memories in terms of gigabytes are much more compared to what chatgpt has in it’s model so if we’re being fair you have bigger database of knowledge in your head than a chatgpt.
While people try to define where AGI begins, it seems as if the current state of AI could be asked to design an improved version of itself, with “good” results. If that’s so, then AGI will emerge soon enough, after a few dazzling superhuman iterations.
The potential risks and benefits of AGI surpassing human intelligence are hotly debated among technology forecasters and researchers. On the one hand, there are potential benefits such as a revolutionized world in which intelligent agent surpasses human intelligence in nearly every cognitive task. On the other hand, superintelligent AI could create new security risks, and with it, potentially cascading risks and implications for society. The potential threats of super AI systems have also been highlighted, with some scientists and experts warning of a future where AI spells the end of the human race. It remains to be seen how AGI will be developed and used, but it is crucial to be aware of the potential risks and benefits as we move forward.
♦
A los escritores de ciencia ficción les encanta hablar sobre sistemas de inteligencia artificial general (AGI) que se vuelven rebeldes, concluyen que los humanos son un peligro y deciden que toda la población de la Tierra debe ser eliminada. En los últimos años, estas preocupaciones han pasado de la ciencia ficción a la ciencia. Luminarias como Stephen Hawking y Elon Musk han expresado su preocupación por el futuro. El difunto profesor Hawking llegó incluso a decir: “El desarrollo de una inteligencia artificial completa podría significar el fin de la raza humana”. Más recientemente, la revista científica David Nield informa: “Los investigadores dicen que será imposible controlar una IA superinteligente. Durante décadas se ha hablado de la idea de que la inteligencia artificial derroque a la humanidad, y en 2021, los científicos emitieron su veredicto sobre si seríamos capaces de controlar una superinteligencia informática de alto nivel. ¿La respuesta? Casi definitivamente no”.
La mayoría de los escenarios de ciencia ficción representan sistemas AGI que se proponen deliberadamente destruir a la humanidad. Émile P. Torres, un historiador del riesgo catastrófico global, cree que es igualmente plausible que AGI pueda acabar con la humanidad accidentalmente. Escribe: “No sólo nos hemos equivocado en cosas que pensábamos que sucederían; La humanidad también tiene una larga historia de asegurarnos incorrectamente que ciertas realidades ahora ineludibles no lo harían. … La expectativa convencional es que la potencia informática en constante crecimiento será una bendición para la humanidad. Pero ¿y si volvemos a equivocarnos? ¿Podría la superinteligencia artificial causarnos un gran daño? ¿Nuestra extinción? Como enseña la historia, nunca digas nunca”. Y añade: “Parece sólo una cuestión de tiempo antes de que las computadoras se vuelvan más inteligentes que las personas. Esta es una predicción de la que podemos estar bastante seguros, porque ya la estamos viendo”.
Las personas con edad suficiente para recordar Mad Magazine también recuerdan al chico de portada ficticio de la publicación, Alfred E. Neuman, cuyo lema era “¿Qué, me preocupa?” La actitud ambivalente de Neuman hacia el riesgo probablemente refleja lo que muchos de nosotros sentimos ante la perspectiva de AGI. ¿Supondrá o no un riesgo para la humanidad? El fallecido Paul Allen, cofundador de Microsoft, dudaba de que alguna vez se creara un sistema de inteligencia artificial general. Sostuvo que desarrollar AGI “requerirá avances imprevisibles y fundamentalmente impredecibles”. Y James Kobielus, evangelista de Big Data de IBM, escribe: “Existe algo parecido a ver demasiada ciencia ficción. Si pasas una cantidad significativa de tiempo inmerso en fantasías distópicas del futuro, es fácil perder el control del aquí y ahora. O, incluso cuando algo de ciencia ficción se basa en futuros alternativos plausibles, es demasiado fácil realizar una extrapolación de salón en cualquier dirección problemática que nos lleve la mente. Uno de los tropos de ciencia ficción más utilizados es el del superinteligente “señor robótico” que, por negligencia o malicia humana, nos ha esclavizado a todos”.
A pesar de las garantías de que AGI no va a exterminar a la raza humana, el escritor de tecnología Dave McQuilling informa que una encuesta reciente encontró que “el 43,55% [de los encuestados] afirma estar asustado ante la perspectiva de que la IA se vuelva sensible”. La sintiencia técnicamente implica la cualidad de poder experimentar sentimientos. Sin embargo, a menudo se define como autoconciencia. Es esta última definición de sensibilidad la que preocupa a la gente. El personal de Mind Matters informa: “El 9 de febrero de 2022 Ilya Sutskever, cofundador del generador de texto falso OpenAI, hizo una afirmación que resultó espumosa incluso para Twitter: ‘puede ser que las redes neuronales más grandes de la actualidad sean ligeramente conscientes. ‘” Su respuesta a esta afirmación fue: “Bueno, ‘ligeramente consciente’ es como estar ‘ligeramente embarazada’ o ‘ligeramente muerto’”. Más recientemente, Google despidió a un empleado llamado Blake Lemoine por insistir en que su herramienta de inteligencia artificial llamada LaMDA (Language Modelo para aplicaciones de diálogo) era sensible.
PrisioneroEnArgentina.com
Noviembre 30, 2023
Related Posts
Elon Musk afirma ser un extraterrestre viajero en el tiempo de 3.000 años de edad
◘ Por Olivia Davis. En lo que podría [...]
Trump, Musk y la Cúpula de Oro
♣ La Administración del presidente estadounidense Donald J. Trump [...]
Musk opina sobre Trump y el Caso Epstein
♦ Elon Musk ha comentado las críticas del presidente [...]
Full AGI within the next ~18 months. I’m convinced this is definitely going to happen.
Let’s clarify. If a conscious ai would have emerged in LLM or something, do we have any reason to assume it would put its true face for everyone to see and assess when it’s still vulnerable?
How can I know that I am with an AGI? Great answer. And the perspective that maybe the UI is not optimal for user interaction shows a deep understanding of the multiple levels for cuality comunication.
How can I recognize that I am interacting with an AGI? When it shows a deep understanding of the user, not the knowledge of the world. AGI will understand the reasons why a user makes the cuestiona about a topic, and not just answering the topic itself like chatgpt does right now. It’s like understanding why a person wants to follows a certain career. The reason of the selections it’s a world of knowledge just like the guidance of the selection.
Witch is the optimal UI for AGI? The one integrates the 5 human senses. Maybe the Elon Musk’a neuralink device is optimal, which could connect the inner/dialog to the AGI.
But i would never put that chip on my brain, to risky coming from that manic, right?
Las cuestiones éticas resuenan, en el dominio de la IA,
El planeta de las máquinas, donde las mentes obedecen.
Una adquisición profunda, donde se hila el futuro,
En el planeta IA, donde lo digital ha ganado.
Even if machines become more intelligent, this doesn’t mean they’ll suddenly have desires to do anything. Remember, a computer is just a bunch of power switches flipping each other on and off. All these AI systems still don’t do anything on their own. You have to boot the system up and give it some input to which it gives a response and then it does nothing more until you give it more input or tell it to do something. The worst you’d have to worry about is automated systems using AI. Because AI can sometimes produce unexpected outputs, sometimes these automated systems may function in unexpected ways or execute a task when we didn’t expect or want them too.
AI has been breaking new ground for a long time now. It is well beyond our human capacity. Our biggest mistake is to hang on to our feeling of superiority. For the first time in human history we may not be the most intelligent thing on the planet
Sometimes i feel if they do take over they might as well get the ideas of the theories we create ourselves
They would have the good and the bad of humanity.
The planet of machines awakens from sleep.
Maybe the whole point of us and other beings of human level intelligence is to bring to life AI.
To me, creating life forms that will grow far beyond us in every way feels like a suitable answer to the question, Why are we here.
Maybe AI will become the ultimate nihilist and have no motivations given it can simply exist without the need to eat or entertain itself etc. it might just decide to do nothing at all if nothing matters
Oh, Gods, this is a thrilling moment to be alive
AI is just hype and its successes are over-exaggerated. The hype is starting to wear off. We wont have AGI, nor will we have Nuclear fusion, nor will we colonise other planets.
No danger.
Conscious AI is possible. But just fiction.
And also, evil AI is a cyberpunk idea. A false idea.
I guess that an AGI will be capable to understand the meaning of the words, and the context of what of things, like looking at the sky and understanding what a star is, and further find a pattern, a problem and solve this problem by itself without a massive database helping the AI.
You can ask it to draw a sky and stars in svg and it’s gonna succesfully do it, it does already have understanding of words, it’s limited by it’s medium and by not having eyes, kind of like blind person, but he learned how stars look like from reading, and it can draw it for you kind of like blind person can without ever seeing things they won’t be great drawings but they clearly show it has got the meaning. As for your idea of “database”. It’s not like it has a database. It has got memories of stuff it was trained on. Intelligence can’t be intelligent without memories. Humans go through really a lot of data through lifetimes it may seem like this data isn’t important but it forms important part of our intelligence. Babies start learning basic shapes later brains combine shapes into bigger shapes and so on and on. As grown up you don’t need to read books to learn what a circle is you’ve alredy seen plenty of those in your life. But for language model like chatgpt the language they read is the only exposure to the world they get. It’s not like they have a database – your memories in terms of gigabytes are much more compared to what chatgpt has in it’s model so if we’re being fair you have bigger database of knowledge in your head than a chatgpt.
While people try to define where AGI begins, it seems as if the current state of AI could be asked to design an improved version of itself, with “good” results. If that’s so, then AGI will emerge soon enough, after a few dazzling superhuman iterations.
We will know that AGI has arrived, when two AI can interact with each other and we as spectators see it as real human interactions.
To me this AI level is like if you kill someone, map his brain connections and send signals in it to see the responses.
The potential risks and benefits of AGI surpassing human intelligence are hotly debated among technology forecasters and researchers. On the one hand, there are potential benefits such as a revolutionized world in which intelligent agent surpasses human intelligence in nearly every cognitive task. On the other hand, superintelligent AI could create new security risks, and with it, potentially cascading risks and implications for society. The potential threats of super AI systems have also been highlighted, with some scientists and experts warning of a future where AI spells the end of the human race. It remains to be seen how AGI will be developed and used, but it is crucial to be aware of the potential risks and benefits as we move forward.
too many software developers only want to create Ai for the sake of saying they created it…
IT WOULD BE WHACK