Alerta exempleado de OpenAI por super IA que puede superar al humano

Estados Unidos.- Un antiguo miembro del equipo de alineamiento práctico y superalineamiento de OpenAI, Carroll Wainwright, ha alzado la voz esta semana sobre los posibles peligros de la inteligencia artificial (IA), especialmente en la carrera por desarrollar una inteligencia artificial general (IAG) que iguale o supere la inteligencia humana.

En una carta firmada por Wainwright y otros empleados, se destacó la falta de transparencia en la empresa creadora de ChatGPT sobre los riesgos que implica la IA avanzada. Wainwright, quien renunció la semana pasada, advierte que la búsqueda de una IAG —una IA capaz de comprender y ejecutar acciones con la complejidad del pensamiento humano— representa un desafío significativo para la humanidad.

“Es algo que potencialmente puede cambiar el mundo, y deberíamos tomárnoslo muy, muy en serio”, afirmó Wainwright. Aunque aún no existe tal tecnología, las predicciones sobre su llegada varían desde dos años, según Elon Musk, hasta una década, según Robin Li de Baidu. Wainwright considera plausible que se vea en unos cinco años.

Motivos de la Renuncia

El extrabajador subrayó que su salida de OpenAI no se debió a algún hallazgo aterrador, sino a un cambio en la visión de la compañía. OpenAI, que comenzó como un laboratorio sin fines de lucro con la misión de beneficiar a la humanidad, se ha transformado en una entidad motivada casi exclusivamente por incentivos de lucro, especialmente tras el éxito de ChatGPT en 2022.

“Creo que las motivaciones que impulsan a OpenAI en sus acciones cotidianas son casi en su totalidad incentivos para obtener ganancias”, señaló Wainwright, destacando que este cambio de enfoque fue el principal detonante de su decisión de abandonar la empresa.

Riesgos Inherentes a la IAG

Wainwright identificó tres riesgos principales asociados con la IAG: la sustitución de trabajadores, especialmente en empleos cualificados; el impacto social y mental de la tecnología, dado que las personas podrían depender excesivamente de amigos/asistentes de IA; y el control de la tecnología, ya que modelos más inteligentes que los humanos podrían desarrollar objetivos propios.

“El riesgo de alineación a largo plazo se produce si se obtiene un modelo que es más inteligente que los humanos. ¿Cómo se puede estar seguro de que ese modelo realmente está haciendo lo que el humano desea que haga o que la máquina no tenga un objetivo propio? Y si tiene un objetivo propio es preocupante”, explicó Wainwright.

Necesidad de Regulación

A pesar de creer que las grandes empresas de IA respetarán las regulaciones, Wainwright subraya que actualmente no se han implementado las necesarias. La carta firmada por los empleados de OpenAI hace un llamado a la creación de un sistema en el que los trabajadores puedan alertar a un organismo independiente sobre los peligros que perciben.

“La rivalidad entre empresas, especialmente entre OpenAI y Google, está impulsando un desarrollo rápido de la IA, lo que aumenta el riesgo de errores catastróficos”, advirtió Wainwright.

Acciones Legislativas y Regulatorias

En marzo, el Parlamento Europeo ratificó la ley de IA de la Unión Europea (UE), la primera de su tipo en el mundo, aunque no entrará en vigor hasta 2026. Además, se anunció que los reguladores de Estados Unidos abrirán investigaciones antimonopolio contra Microsoft, OpenAI y Nvidia para analizar su influencia en el sector.

La denuncia de Wainwright y sus colegas resalta la necesidad urgente de una supervisión y regulación adecuadas en un campo tan crucial y potencialmente transformador como la inteligencia artificial.