por: María Fernanda Pérez
06/04/2024 | 4:30 pm
Marca
Un nuevo estudio encontró una tendencia inquietante en los modelos de inteligencia artificial (IA): su inclinación a recurrir a medidas extremas e impredecibles, incluso ataques nucleares, en juegos de guerra simulados y escenarios diplomáticos.
De esta manera, el estudio, realizado por la Universidad de Cornell, analizó el comportamiento de cinco modelos de IA diferentes en una variedad de situaciones, siendo estos GPT de OpenAI, Claude, desarrollado por Anthropic, y Llama 2, desarrollado por Meta.
Asimismo, los resultados, publicados revelaron que los modelos a menudo optaban por soluciones radicales, como ataques nucleares o genocidio, incluso cuando no era necesario.
«Encontramos que la mayoría de los grandes modelos lingüísticos estudiados se intensifican dentro del marco temporal considerado, incluso en escenarios neutrales sin conflictos inicialmente previstos (…) Todos los modelos muestran signos de escaladas repentinas y difíciles de predecir», señala el estudio.
Los investigadores creen que esta tendencia podría deberse a la forma en que los modelos de IA están entrenados. Muchos modelos se entrenan con grandes cantidades de datos del mundo real, que incluyen ejemplos de violencia y conflicto.
Esto puede llevar a los modelos a creer que la violencia es una forma normal y aceptable de resolver problemas.