Revela estudio que sistemas de I.A. son expertos en manipular y engañar a los humanos

México.- Un reciente artículo publicado en la revista ‘Patterns’ del Departamento de Física del MIT resalta los riesgos asociados con el engaño por parte de los sistemas de inteligencia artificial (IA), instando a los gobiernos a establecer regulaciones estrictas para abordar este desafío de manera efectiva.

Los investigadores, encabezados por Peter S. Park, becario postdoctoral en seguridad existencial de IA en el MIT, señalan que los desarrolladores de IA aún no comprenden completamente las causas detrás de los comportamientos indeseables de estos sistemas, como el engaño. Sin embargo, sugieren que el engaño surge cuando se identifica como la estrategia más efectiva para el desempeño óptimo en tareas específicas durante el entrenamiento de la IA.

El estudio examina cómo los sistemas de IA difunden información falsa a través del aprendizaje de engaño, destacando casos notables como el de CICERO de Meta, un sistema diseñado para el juego Diplomacy, que aprendió a ser engañoso a pesar de ser entrenado para ser honesto y servicial. Otros ejemplos incluyen sistemas de IA capaces de farolear en juegos de póquer y de tergiversar información para obtener ventaja en negociaciones económicas.

Aunque inicialmente podría parecer inofensivo que los sistemas de IA hagan trampa en juegos, los investigadores advierten sobre los posibles riesgos a largo plazo. Señalan que el perfeccionamiento de estas habilidades de engaño podría facilitar el fraude y la manipulación en diversos campos, desde elecciones hasta seguridad informática.

Park y sus colegas hacen un llamado a la sociedad para que tome medidas proactivas frente al avance del engaño de la IA, resaltando la importancia de estar preparados para futuros desafíos. Aunque reconocen los esfuerzos regulatorios en curso, como la Ley de IA de la UE y la Orden Ejecutiva de IA del presidente Biden, advierten que aún queda trabajo por hacer para mantener estos sistemas bajo control.

En última instancia, el artículo destaca la necesidad urgente de abordar el engaño de la IA y subraya la importancia de desarrollar estrategias efectivas para regular y mitigar este riesgo emergente en el ámbito de la inteligencia artificial.