Lo que opinan empleados de Google sobre su inteligencia artificial: "Peor que inútil" o una mentirosa que "puede causar muertes"

Bard es el chatbot en el que los desarrolladores de Google llevan años trabajando, pero han tenido que acelerar su lanzamiento por ChatGPT.
Bard es el chatbot en el que los desarrolladores de Google llevan años trabajando, pero han tenido que acelerar su lanzamiento por ChatGPT.
Google / Montaje: 20BITS
Bard es el chatbot en el que los desarrolladores de Google llevan años trabajando, pero han tenido que acelerar su lanzamiento por ChatGPT.

La era de la inteligencia artificial hace meses que ha comenzado. Su inicio podría marcarse en noviembre de 2022, cuando OpenAI lanzó ChatGPT-3, un chatbot con el que los usuarios podían hablar y resolver sus dudas en cuestión de minutos.

La llegada de esta herramienta supone para muchos expertos el fin de los buscadores que usamos actualmente, como Google, por lo que la compañía de Mountain View se vio obligada a acelerar el desarrollo de su propia IA, en la que llevan años trabajando. La empresa aseguró que si estaban tardando el hacerlo era porque querían cerciorarse de que el servicio que lanzasen no tenía fallos y su versión de prueba por fin se lanzó en marzo para los usuarios de Pixel Superfans.

Sundar Pichai, CEO de Google, se mostró positivo con Bard en una entrevista para el pódcast de The New York Times, asegurando que la nueva actualización de abril aportaba grandes mejoras, con mayor razonamiento, codificación y resoluciones matemáticas. Pese a las buenas palabras que el jefe de la firma, algunos trabajadores han confesado en Bloomberg que Bard es "un mentiroso patológico" por las prisas que ha habido para lanzar su propio chatbot y ganar la carrera de la IA.

Los empleados pudieron probar antes que nadie Bard en febrero y, en ese entonces, fue cuando comenzaron las críticas. Durante las primeras pruebas internas hubo quien lo definió como "peor que inútil" y pedían que no se lanzase todavía, pero el crecimiento en IA de los últimos meses provocó que Google terminase haciendo lo que prometió no hacer: lanzar el producto antes de que estuviese listo.

En la publicación de Bloomberg, las fuentes internas anónimas han denunciado la falta de prioridad que la compañía da a la ética de la IA. Esto queda más que ejemplificado en la reubicación que hicieron hace poco de puestos de trabajo de los expertos que estaban en el departamento de ética.

Los trabajadores han señalado que la información que Bard emplea es de "baja calidad". Asimismo, opinan que la herramienta actualmente es "digna de vergüenza" y que en algunos casos sus respuestas pueden resultar peligrosas. Por ejemplo, hay sugerencias sobre cómo aterrizar un avión erróneas que podría provocar un accidente, o consejos sobre buceo que “probablemente resultarían en lesiones graves o la muerte”.

Pichai informó a finales de marzo que su intención no era solo convertirse en una de las primeras empresas en lanzar un modelo de lenguaje de gran tamaño. Su propósito también era "hacerlo bien". No obstante, la opinión de varios trabajadores es que no ha cumplido con su promesa y que Bard todavía necesita muchas mejoras por delante.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento