lunes, 5 de junio de 2023

La inteligencia artificial puede llevar a la extinción de la humanidad: advierten los expertos en IA

Share

 


Un grupo de expertos, incluyendo a los líderes de OpenAI y Google DeepMind, advirtió en un documento que la inteligencia artificial podría llevar a la extinción de la humanidad. En una declaración publicada en el Centro para la Seguridad de la IA, se destaca la necesidad de mitigar el riesgo de extinción causado por la IA, junto con otros peligros sociales como las pandemias y la guerra nuclear.


El comunicado cuenta con el respaldo de Sam Altman, CEO de OpenAI (creador de ChatGPT), y Demis Hassabis, CEO de Google DeepMind. También lo firman otros líderes destacados en el desarrollo de esta nueva tecnología, como Dario Amodei de Anthropic, y el Dr. Geoffrey Hinton, quien previamente había advertido sobre los riesgos de un sistema superinteligente.


Sin embargo, hay otro grupo de expertos que considera que estas advertencias apocalípticas son exageradas. Uno de ellos es el profesor Yann LeCun de la Universidad de Nueva York, reconocido junto con Hinton y Yoshua Bengio como uno de los pioneros de la IA. Los tres recibieron conjuntamente el Premio Turing en 2018, que reconoce contribuciones destacadas en ciencias de la computación.


Entre quienes consideran que los temores sobre la IA acabando con la humanidad son poco realistas y distraen de problemas más inmediatos, como el sesgo en los sistemas, se encuentra Arvind Narayanan, informático de la Universidad de Princeton. Narayanan afirmó que la IA actual no es lo suficientemente capaz como para que estos riesgos se materialicen. Además, señaló que los escenarios catastróficos propios de la ciencia ficción no son realistas y que el enfoque debería centrarse en los daños a corto plazo causados por la IA.


Desde marzo de 2023, ha habido un aumento significativo en la cobertura mediática sobre la supuesta amenaza "existencial" de la inteligencia artificial (IA). Esto se debe en parte a una carta abierta firmada por varios expertos, incluido Elon Musk, CEO de Tesla, en la que se instaba a detener el desarrollo de la próxima generación de tecnología de IA. En la carta, se planteaba la pregunta de si deberíamos seguir adelante con el desarrollo de mentes no humanas que podrían eventualmente superarnos en número, inteligencia y capacidad de reemplazo.


En contraste, la nueva declaración del Centro para la Seguridad de la IA es más breve y busca fomentar el debate comparando la superinteligencia con el riesgo que representa una guerra nuclear. Esta perspectiva ya se había mencionado en un blog de OpenAI, donde se sugería la necesidad de una regulación similar a la que existe para la energía nuclear. La empresa responsable de ChatGPT planteaba la idea de establecer algo similar a un Organismo Internacional de Energía Atómica (OIEA) para supervisar los esfuerzos en el campo de la superinteligencia.


Tanto Sam Altman, director ejecutivo de OpenAI, como Sundar Pichai, CEO de Google, forman parte de un grupo de presión que ha debatido recientemente con líderes mundiales sobre la necesidad de regular la IA. Entre ellos se encuentra el primer ministro británico, Rishi Sunak, quien reconoció los beneficios de la IA para la economía y la sociedad, pero subrayó la importancia de garantizar que su desarrollo se realice de manera segura. Sunak se reunió con CEOs de las principales empresas de IA para discutir los límites y la regulación necesaria para garantizar la seguridad. Este tema también se abordó en la cumbre del G7 celebrada en Japón en mayo, donde se creó un grupo de trabajo específico sobre la IA.


Fuente: https://www.bbc.com/mundo/noticias-65759254


0 comentarios:

Publicar un comentario