Más de 300 expertos e investigadores de la industria de la inteligencia artificial (IA), incluyendo figuras destacadas como Demis Hassabis de Google DeepMind, Dario Amodei de Anthropic y Sam Altman de OpenAI, han advertido en una carta que la IA representa un “riesgo de extinción” comparable al de las pandemias y la guerra nuclear.
El comunicado, publicado por el Center for AI Safety, una organización sin fines de lucro con sede en San Francisco, enfatiza la necesidad de priorizar la mitigación del riesgo de extinción de la IA a nivel mundial, junto con otros riesgos sociales.
Entre los firmantes de la carta se encuentran Geoffrey Hinton, considerado el “padrino” de la IA, y Yoshua Bengio, dos de los tres investigadores de IA galardonados con el Premio Turing 2018, conocido como el “Premio Nobel de la informática“, por su trabajo en inteligencia artificial.
La preocupación sobre las consecuencias de la IA ha aumentado desde el lanzamiento del chatbot ChatGPT de OpenAI en noviembre de 2023, siendo la difusión masiva de desinformación y propaganda, así como la posible eliminación de empleos, dos de los mayores temores asociados a esta tecnología.
Expertos advierten al gobierno sobre el riesgo que implica las IA
En una reciente entrevista con The New York Times, Hinton expresó su preocupación de que la IA pueda superar la capacidad intelectual humana, algo que muchos creían que estaba lejos de suceder. Esto ha llevado a un debate sobre la regulación de la IA, y figuras como Altman, Hassabis y Amodei se reunieron con el presidente Joe Biden y la vicepresidenta Kamala Harris para discutir este tema.
Altman, director ejecutivo de OpenAI, también testificó ante el Senado de Estados Unidos, advirtiendo sobre los riesgos de la IA y argumentando que eran lo suficientemente serios como para justificar la intervención gubernamental.
En marzo, más de mil empresarios e investigadores del sector tecnológico, incluyendo Elon Musk, firmaron una carta solicitando la suspensión de los sistemas de IA “más poderosos que GPT-4” (el último modelo de OpenAI) durante seis meses, en un tono apocalíptico.
Para seguir leyendo: Crean comité ético para prevenir riesgo en IA ubicado en China