Un breve comunicado publicado por el Centro para la Seguridad de Inteligencia Artificial y que fue firmado por expertos y personalidades reconocidas en el campo de la tecnología, como el CEO de OpenAI, Sam Altman, ha destacado que la inteligencia artificial podría generar posibles eventos de “extinción” para la sociedad.
La declaración, que se reduce únicamente a un párrafo introductorio y una frase final, indica que aún cuando se están debatiendo formas para regular las inteligencias artificiales, se tiene que centrar la atención en mitigar los posibles peligros que pueda traer consigo la creación de versiones mucho más avanzadas de estos programas.
“Mitigar el riesgo de extinción por IA debería ser una prioridad global junto con otros riesgos para la sociedad como las pandemias y una guerra nuclear”, coinciden los expertos.
Aunque Altman indicó en entrevistas durante el año 2023, que la inteligencia artificial con capacidad para dominar al mundo como se presenta en las películas, sí aseguró que teme que pueda ser utilizada para generar contenido dirigido a desinformar a las personas.
Aún cuando Altman aseguró que estos programas se benefician del contacto con los humanos y permiten identificar y corregir errores pequeños antes de que se generen otros mayores, sí se mostró muy a favor de la regulación de este tipo de tecnología para proteger la seguridad de los usuarios en internet.
A raíz del aumento de la popularidad de la inteligencia artificial generativa, como en el caso de ChatGPT y sus diferentes versiones como GPT-3.5 y GPT-4, las preocupaciones sobre la seguridad de los usuarios y su información personal aumentaron en diferentes países del mundo.