IDEAS
IA que se mandan solas
En una reciente nota publicada en el diario español La Vanguardia, se da cuenta de que OpenAI una de las empresas más avanzada en el desarrollo de la Inteligencia Artificial y dueña de ChatGPT no entiende cómo funcionan sus modelos de inteligencia artificial Llibert y Teixidó.
Esto aparentemente tendría que ver con el hecho que las decisiones que toma la IA obedece a intereses distintos a los de los seres humanos.
Esto habría sido detectado en un estudio interno que realizó la empresa para tratar de descubrir la forma en la que los modelos de lenguaje toman sus decisiones, lo cual es igual a tratar de entender las decisiones de una red neuronal artificial. Para el estudio usaron su modelo de lenguaje GPT-4 actual que le hizo generar y evaluar explicaciones sobre cómo se comportan las neuronas en otro modelo, GPT-2, que es mucho más pequeño que el primero.
Si bien no han podido concluir en nada concreto, ha abierto áreas de investigación que ayudarán a encontrar mecanismos para hacer más segura la IA ya que se podrá automatizar la interpretabilidad. Además, en el proceso de análisis realizado ya han llegado a comprender algunos circuitos y comportamientos, pero aún falta analizar millones de neuronas. Además, han podido determinar que las IA llegan a usar conceptos o abstracciones naturales para los que los seres humanos no tenemos palabras o no han sido descubiertas.
Como se sabe, las neuronas que componen una red neuronal de inteligencia artificial son pequeños nodos de toma de decisiones que reciben información, la procesan y la emiten, en un funcionamiento que se asemeja al de las neuronas del cerebro humano, que están interconectadas con otras y toman decisiones según los estímulos que les llegan.
Publicar un comentario