Lo que opinan empleados de Google sobre su inteligencia artificial: "Peor que inútil" o una mentirosa que "puede causar muertes"
- El CEO de la empresa aseguraba que su intención no era solo ser de los primeros en lanzar un modelo de lenguaje de gran tamaño, sino que también querían hacerlo bien, pero algunos trabajadores creen que no está siendo así.
- Estas gafas con GPT-4 harán que siempre tengas una buena respuesta en una entrevista de trabajo o una cita
- ¿Quién es Timnit Gebru? Así es la experta en inteligencia artificial que Google despidió por alertar de los peligros de IA
La era de la inteligencia artificial hace meses que ha comenzado. Su inicio podría marcarse en noviembre de 2022, cuando OpenAI lanzó ChatGPT-3, un chatbot con el que los usuarios podían hablar y resolver sus dudas en cuestión de minutos.
La llegada de esta herramienta supone para muchos expertos el fin de los buscadores que usamos actualmente, como Google, por lo que la compañía de Mountain View se vio obligada a acelerar el desarrollo de su propia IA, en la que llevan años trabajando. La empresa aseguró que si estaban tardando el hacerlo era porque querían cerciorarse de que el servicio que lanzasen no tenía fallos y su versión de prueba por fin se lanzó en marzo para los usuarios de Pixel Superfans.
Sundar Pichai, CEO de Google, se mostró positivo con Bard en una entrevista para el pódcast de The New York Times, asegurando que la nueva actualización de abril aportaba grandes mejoras, con mayor razonamiento, codificación y resoluciones matemáticas. Pese a las buenas palabras que el jefe de la firma, algunos trabajadores han confesado en Bloomberg que Bard es "un mentiroso patológico" por las prisas que ha habido para lanzar su propio chatbot y ganar la carrera de la IA.
Los empleados pudieron probar antes que nadie Bard en febrero y, en ese entonces, fue cuando comenzaron las críticas. Durante las primeras pruebas internas hubo quien lo definió como "peor que inútil" y pedían que no se lanzase todavía, pero el crecimiento en IA de los últimos meses provocó que Google terminase haciendo lo que prometió no hacer: lanzar el producto antes de que estuviese listo.
En la publicación de Bloomberg, las fuentes internas anónimas han denunciado la falta de prioridad que la compañía da a la ética de la IA. Esto queda más que ejemplificado en la reubicación que hicieron hace poco de puestos de trabajo de los expertos que estaban en el departamento de ética.
Los trabajadores han señalado que la información que Bard emplea es de "baja calidad". Asimismo, opinan que la herramienta actualmente es "digna de vergüenza" y que en algunos casos sus respuestas pueden resultar peligrosas. Por ejemplo, hay sugerencias sobre cómo aterrizar un avión erróneas que podría provocar un accidente, o consejos sobre buceo que “probablemente resultarían en lesiones graves o la muerte”.
Pichai informó a finales de marzo que su intención no era solo convertirse en una de las primeras empresas en lanzar un modelo de lenguaje de gran tamaño. Su propósito también era "hacerlo bien". No obstante, la opinión de varios trabajadores es que no ha cumplido con su promesa y que Bard todavía necesita muchas mejoras por delante.
Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.