El lado oscuro de la inteligencia artificial

Share

Recientemente, un equipo internacional de expertos en humanidades, analizó cómo el juicio y los valores humanos a menudo son subordinados al imperativo de eficiencia de la inteligencia artificial (IA) y por qué los costos pueden ser altos. El equipo explica que si bien la IA tiene un gran potencial para beneficiar a la sociedad, se necesita saber qué puede salir mal con su uso, pues es importante tener en cuenta su lado oscuro.

Cuando la IA falla, lo hace “de manera bastante espectacular”, comenta Vern Glaser, profesor de la Escuela de Negocios de la Universidad de Alberta (Canadá). “Si no trata activamente de pensar en las implicaciones de valor, terminará creando malos resultados”, subraya.

En su estudio, publicado recientemente en MIT Sloan Management Review, los investigadores argumentaron su punto de vista con varios casos reales de resultados desastrosos de la implementación de la IA. Por ejemplo, cuando en el 2016 se introdujo el chatbot Tay en Twitter, se eliminó en las siguientes 24 horas debido a que los troles le enseñaron a desarrollar un lenguaje racista.

Si bien la IA promete brindar enormes beneficios a la sociedad, ahora también estamos comenzando a ver su parte más oscura, manifestaron los analistas. Más recientemente, algunos expertos, como Lawrence Martin, señalan las posibilidades distópicas de la IA, incluidas las armas que pueden disparar sin supervisión humana, los ataques cibernéticos, las falsificaciones y las campañas de desinformación.

Imagen ilustrativa

Los expertos sustentaron su análisis en la noción de “técnica” del filósofo francés Jacques Ellul, ofrecida en su libro ‘La sociedad tecnológica’, de 1954, según la cual cada campo de la actividad humana está determinado por los imperativos de eficiencia y productividad. “Ellul fue muy profético”, escribieron. “Su argumento es que cuando pasas por este proceso de técnica, inherentemente estás eliminando valores y creando este mundo mecánico donde tus valores esencialmente se reducen a la eficiencia”, señalaron.

Para protegerse de la “tiranía de la técnica” de la IA, los expertos sugieren adherirse a tres principios:

Reconocer que debido a que los algoritmos son matemáticos, se basan en representaciones digitales de fenómenos reales. Un ejemplo de ello, es que las redes sociales miden la amistad por cuántos amigos tiene un usuario o por la cantidad de ‘me gusta’ que reciben de sus amigos en las publicaciones. “¿Es eso realmente una medida de amistad?”, se cuestionan

Los diseñadores de IA deberían insertar estratégicamente intervenciones humanas en la toma de decisiones algorítmicas y crear sistemas evaluativos que tengan en cuenta múltiples valores

Por último, la IA que encarna los valores humanos requiere una supervisión vigilante y continua para evitar que surja su feo potencial

Los analistas señalan que la IA es simplemente un reflejo de quiénes somos, en nuestro mejor y peor momento. “Sin una buena y dura mirada en el espejo, este último podría tomar el relevo”, indicaron. “Queremos asegurarnos de que entendemos lo que está pasando, para que la IA no nos controle”, concluyeron.

 


PrisioneroEnArgentina.com

Abril 10, 2023


 

0 0 votes
Article Rating
Subscribe
Notify of
guest
1 Comment
Newest
Oldest Most Voted
Inline Feedbacks
View all comments
1
0
Would love your thoughts, please comment.x
()
x