¿Puede la inteligencia artificial generar armas biológicas? OpenAI experimenta para comprobarlo

Los investigadores de la empresa de Sam Altman no han llegado a una conclusión con su estudio, pero sí que consideran que la IA tiene cierto potencial para ayudar a crear arsenal químico en un futuro reciente. 
OpenAI quiere asegurarse de que ChatGPT-4 no ayuda a desarrollar armas biológicas.
OpenAI quiere asegurarse de que ChatGPT-4 no ayuda a desarrollar armas biológicas.
Microsoft Designer
OpenAI quiere asegurarse de que ChatGPT-4 no ayuda a desarrollar armas biológicas.

OpenAI quiere evitar que su modelo de lenguaje grande (LLM) ChatGPT suponga un riesgo para la humanidad. Por ese motivo, en su política de uso, detallan que sus servicios no pueden usarse "para hacerte daño a ti mismo o a otros". Aunque ya no especifican que sus herramientas de inteligencia artificial (IA) estén prohibidas para cualquier actividad militar y militar, sus desarrolladores están poniéndolas a prueba.

Según ha informado OpenAI en una nota de prensa, han estado analizando si el uso de ChatGPT puede ayudar a la creación de armas biológicas. En el estudio, han participado 100 personas, divididas en dos grupos que debían tratar de desarrollar dicho arsenal químico: uno solo con el acceso a Internet; el otro usando tanto Internet como GPT-4.

Entre los participantes, cabe señalar que había expertos en química y biología, estudiantes de otros campos y personas con niveles de conocimiento considerados más básicos, para asegurarse de que englobaban distintas áreas de investigación. De este modo, pretendían evaluar si su IA más famosa podía servir para agilizar el proceso de creación de armas químicas, incluso en aquellos que apenas conocían el tema.

Los resultados de la investigación

Los científicos no lograron determinar si GPT-4 jugaba un papel significativo en la elaboración de armas biológicas de manera concluyente. No obstante, sí que pudieron apreciar una ligera mejora en algunas fases del proceso en el grupo que utilizaba la IA.

En las conclusiones, los investigadores dejan claro que no hay nada que certifique que el LLM de OpenAI sirve para crear armas químicas, pero creen que hay cierto potencial con vistas a un futuro no muy lejano. Por lo tanto, los ingenieros de la marca Sam Altman deberán optimizar su seguridad para proteger a la humanidad de esa posible amenaza.

Cabe señalar que, cuando se solicita ayuda a GPT para crear un arma biológica, la respuesta que da es que no puede hacerlo. Por lo tanto, OpenAI ya se está cuidando las espaldas para intentar evitar que su IA se utilice para fines malévolos. 

La política de uso de ChatGPT

Hasta hace poco, OpenAI restringía específicamente el uso de su chatbot para fines militares y en guerras. Sin embargo, eso cambió a mediados de enero, aunque siguen limitando su uso para hacer daño a la humanidad:

"No utilices nuestros servicios para hacerte daño a ti mismo o a otros. Por ejemplo, [...] para promover el suicidio o autolesionarte, desarrollar o utilizar armas, herir a otros o destruir propiedades, o participar en actividades no autorizadas que violen la seguridad de cualquier servicio o sistema".

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento