“Es potencialmente distorsionador y peligroso”… Meta retira su IA ‘Galactica’

Imagen: Meta.

Meta retiró tan solo unos días después del lanzamiento de su demostración su modelo de lenguaje de Inteligencia Artificial (IA) Galactica, destinado a la creación de documentos científicos, tras promover información sesgada y falsa.

La compañía tecnológica presentó este proyecto el pasado 15 de noviembre, detallando que había entrenado este producto con 48 millones de ejemplos de artículos, páginas web especializadas, libros de texto, enciclopedias y conferencias del ámbito científico.

Entonces, señaló que Galactica serviría como apoyo a investigadores y estudiantes, puesto que estaba capacitado para “resumir trabajos académicos, resolver problemas matemáticos, generar artículos de Wikipedia, escribir código científico y anotar fórmulas de moléculas y proteínas”, entre otras funcionalidades.

Con tan solo unos días de rodaje de su demostración, este modelo de lenguaje basado en IA se habría convertido en un bot sin sentido capaz de crear y compartir resultados sesgados e información inverosímil, según Technology Review, que recogió el testimonio de algunos de los usuarios que probaron Galactica.

“Peligroso” y “no ético”

Uno de ellos es el científico y filósofo Grady Booch, que calificó este modelo de “peligroso” y “no ético”, mientras que Michael Black, el director del Instituto Max Planck de Sistemas Inteligentes (Alemania) dijo que este producto es capaz de incluir referencias falsas e inexistentes en artículos científicos.

“Aplaudo la ambición de este proyecto, pero advierto a todos de la publicidad que se le ha dado. Esto no es un gran acelerador para la ciencia o, incluso, una herramienta útil para la escritura científica. Es potencialmente distorsionador y peligroso para la ciencia“, escribió Black en su perfil en Twitter.

Debido a estos fallos, la compañía optó por retirar la demostración de Galactica y anunció por Twitter que agradece los comentarios que ha recibido hasta ahora por parte de la comunidad científica que la probó.

“Nuestros modelos están disponibles para los investigadores que desean aprender más sobre su trabajo y reproducir los resultados en un papel“, escribió en su cuenta en Papers with Code, donde presentó el proyecto inicialmente.

Previous Article

Fuerte protesta de trabajadores se produce en la principal fábrica de iPhones, en China

Next Article

Selección alemana de fútbol se tapa la boca en Catar en protesta por los DD. HH.

Related Posts