Ad image
Ad image

“La inteligencia artificial de Google puede causar lesiones y muertes”, dijeron empleados de la empresa

SCALDIA
SCALDIA
Ad image

IA de Google, Empleados de Google que probaron a Bard, el sistema basado en inteligencia artificial (IA) que compite con ChatGPT, revelaron a la publicación Bloomberg las falencias y riesgos de esa tecnología, a la que describieron como un “mentiroso patológico” capaz de “causar lesiones e incluso muertes” debido a las respuestas que arroja.

Empleados de Google vapulean la IA de Google y suman preocupaciones ante el avance de la inteligencia artificial

Fuentes anónimas que actualmente trabajan en la compañía del buscador dijeron a la publicación estadounidense que Bard es “vergonzoso” y que es un sistema peligroso. Estas consideraciones coinciden con las alertas que divulgaron en las últimas semanas organizaciones y especialistas, en función del arrollador avance de las tecnologías con IA, como ChatGPT y los generadores automáticos de imágenes capaces de trabajar con escasa intervención humana.

ChatGPT y Bard, de OpenAI y Google, emblemas del avance de la inteligencia artificial en 2023. (Foto: Adobe Stock)

Una de las advertencias más resonantes se dio a conocer en una carta firmada por empresarios y expertos del área, entre ellos Elon Musk y el cofundador de Apple, Steve Wozniak, en la que pidieron que se pausen los desarrollos de IA durante seis meses para evaluar sus alcances y establecer regulaciones.

Con una dosis mayor de sensacionalismo, otro especialista dijo que si seguimos por este camino “todos moriremos” por causa de las herramientas de IA.

Los peligrosos consejos de Google Bard

En capturas de pantalla que obtuvo Bloomberg aparecen las duras críticas a Google Bardpor parte de los mismísimos empleados de la empresa con sede central en Mountain View, California. Un empleado contó que le pidieron consejos al chatbot sobre cómo actuar durante un aterrizaje de avión y que respondió con recomendaciones que “probablemente resultarían en lesiones graves o muerte”.

IA de Google

Bard es peor que inútil. Por favor, no lo lancen”, había dicho un trabajador de Google que se dedica a evaluar la seguridad y los niveles éticos en los desarrollos, en un mensaje interno que se publicó en febrero de este año. Como es sabido, los ejecutivos de Alphabet Inc. no hicieron caso a esa recomendación.

De acuerdo a las fuentes consultadas, Google ha privilegiado la competencia comercial con OpenAI, el desarrollador de ChatGPT, por sobre los aspectos éticos de Bard. Antes, un reporte de Gizmodo notó que el sistema de IA de Google arrojó información errónea, plagió artículos y se equivocó en matemáticas básicas. Acusaciones similares también apuntaron a ChatGPT, tal como contamos en TN Tecno.

La respuesta de Google luego de los ataques al chatbot Bard

La IA responsable sigue siendo una de las principales prioridades de la empresa, y seguimos invirtiendo en los equipos que trabajan para aplicar esos principios a nuestra tecnología”, dijo un vocero de Google en diálogo con Business Insider.

Mientras tanto, otras compañías apuran sus motores para lanzar sus propios chatbots, entre ellas Amazon y Alibaba.

ETIQUETADO:
Comparte este artículo
Ad image