La caja negra de la inteligencia artificial

Share

  Por J.G. Shear.

Para algunas personas, el término “caja negra” recuerda a los dispositivos de grabación de los aviones que son valiosos para los análisis post mortem si sucede lo impensable. Para otros, evoca teatros pequeños y mínimamente equipados. Pero caja negra también es un término importante en el mundo de la inteligencia artificial.

Las cajas negras de IA se refieren a sistemas de IA con funcionamiento interno que son invisibles para el usuario. Puede proporcionarles información y obtener resultados, pero no puede examinar el código del sistema o la lógica que produjo el resultado.

El aprendizaje automático es el subconjunto dominante de la inteligencia artificial. Es la base de los sistemas de IA generativa como ChatGPT y DALL-E2. El aprendizaje automático tiene tres componentes: un algoritmo o un conjunto de algoritmos, datos de entrenamiento y un modelo. Un algoritmo es un conjunto de procedimientos. En el aprendizaje automático, un algoritmo aprende a identificar patrones después de haber sido entrenado con un gran conjunto de ejemplos: los datos de entrenamiento. Una vez que se ha entrenado un algoritmo de aprendizaje automático, el resultado es un modelo de aprendizaje automático. El modelo es lo que usa la gente.

Por ejemplo, se podría diseñar un algoritmo de aprendizaje automático para identificar patrones en imágenes, y los datos de entrenamiento podrían ser imágenes de perros. El modelo de aprendizaje automático resultante sería un observador de perros. Le alimentaría una imagen como entrada y obtendría como salida si y en qué parte de la imagen un conjunto de píxeles representa a un perro.

Cualquiera de los tres componentes de un sistema de aprendizaje automático puede estar oculto o en una caja negra. Como suele ser el caso, el algoritmo es de conocimiento público, lo que hace que ponerlo en una caja negra sea menos efectivo. Por eso, para proteger su propiedad intelectual, los desarrolladores de IA suelen poner el modelo en una caja negra. Otro enfoque que adoptan los desarrolladores de software es ocultar los datos utilizados para entrenar el modelo; en otras palabras, colocar los datos de entrenamiento en una caja negra.

Lo opuesto a una caja negra a veces se denomina caja de cristal. Una caja de cristal de IA es un sistema cuyos algoritmos, datos de entrenamiento y modelo están disponibles para que cualquiera los vea. Pero los investigadores a veces caracterizan aspectos incluso de estos como cajas negras.

Esto se debe a que los investigadores no comprenden completamente cómo funcionan los algoritmos de aprendizaje automático, en particular los de aprendizaje profundo. El campo de la IA explicable está trabajando para desarrollar algoritmos que, si bien no necesariamente son una caja de cristal, los humanos pueden entender mejor.

En muchos casos, hay buenas razones para desconfiar de los algoritmos y modelos de aprendizaje automático de caja negra. Supongamos que un modelo de aprendizaje automático ha realizado un diagnóstico sobre su salud. ¿Le gustaría que el modelo fuera de caja negra o de cristal? ¿Qué pasa con el médico que le prescribe su tratamiento? Quizás le gustaría saber cómo llegó la modelo a su decisión.

¿Qué pasa si un modelo de aprendizaje automático que determina si usted califica para un préstamo comercial de un banco lo rechaza? ¿No te gustaría saber por qué? Si lo hiciera, podría apelar la decisión de manera más efectiva o cambiar su situación para aumentar sus posibilidades de obtener un préstamo la próxima vez.

Las cajas negras también tienen implicaciones importantes para la seguridad del sistema de software. Durante años, muchas personas en el campo de la informática pensaron que mantener el software en una caja negra evitaría que los piratas informáticos lo examinaran y, por lo tanto, sería seguro. Se ha demostrado en gran medida que esta suposición es errónea porque los piratas informáticos pueden aplicar ingeniería inversa al software (es decir, crear un facsímil observando de cerca cómo funciona una pieza de software) y descubrir vulnerabilidades que explotar.

Si el software está en una caja de cristal, entonces los probadores de software y los piratas informáticos bien intencionados pueden examinarlo e informar a los creadores de sus debilidades, minimizando así los ciberataques.

 


PrisioneroEnArgentina.com

Julio 8, 2024


 

 

Tags: ,
4 1 vote
Article Rating
Subscribe
Notify of
guest
3 Comments
Newest
Oldest Most Voted
Inline Feedbacks
View all comments
3
0
Would love your thoughts, please comment.x
()
x