¿Puede ChatGPT 4 ayudar a producir ataques biológicos? | Estudio de OpenAI

OpenAI, el grupo de investigación a la vanguardia en el desarrollo de potentes modelos de lenguaje como GPT-4, ha publicado un nuevo estudio explorando la posibilidad del uso de la Inteligencia Artificial (IA) para contribuir en la creación de amenazas biológicas.

Dicho análisis, que ha contado con la participación tanto de expertos en biología como estudiantes, ha revelado que el modelo GPT-4 ofrece solo un pequeño aumento en la precisión de la creación de amenazas biológicas en comparación con los recursos que ya existen en Internet.

Metodología y resultados del estudio

Para examinar este riesgo, se llevó a cabo una evaluación humana con 100 participantes, que incluyó a 50 expertos en biología con títulos de doctorado y experiencia profesional de laboratorio, junto con 50 estudiantes con, al menos, una formación universitaria en biología.

Cada grupo de participantes fue asignado de forma aleatoria a un grupo de control que solo tenía acceso a Internet, y un grupo de tratamiento que tenía acceso a Internet y a GPT-4. Pasaron luego a realizar una serie de tareas relacionadas con los aspectos de principio a fin en el proceso de creación de una amenaza biológica, como la idea original, adquisición, ampliación, formulación y liberación.

  El New York Times incorpora un equipo de Inteligencia Artificial

Los investigadores evaluaron el rendimiento de los participantes a través de cinco métricas: precisión, integridad, innovación, tiempo requerido, y dificultad percibida.

Los resultados demostraron que GPT-4 no mejoró de forma significativa el rendimiento de los participantes en ninguna de las métricas, excepto en un ligero incremento en precisión para el grupo de estudiantes. Además, notaron que GPT-4 frecuentemente producía respuestas incorrectas o engañosas, lo que podría perjudicar el proceso de creación de amenazas biológicas.

Potencial amenaza de la IA en el futuro

Los investigadores llegaron a la conclusión de que la generación actual de Modelos de Lenguaje a Gran Escala (LLM, en inglés), como el GPT-4, no representa un riesgo sustancial para habilitar la creación de amenazas biológicas por encima de los recursos que ya existen en Internet.

No obstante, advirtieron que estos hallazgos no son concluyentes y que los LLM futuros podrían volverse más capaces y peligrosos. También subrayaron la necesidad de continuas investigaciones y debates en la comunidad sobre este tema, así como el desarrollo de mejores métodos de evaluación y directrices éticas frente a los riesgos de seguridad habilitados por la IA.

  Top 6 herramientas para generar Promps con/para Inteligencia Artificial

El estudio coincide con los hallazgos de un ejercicio realizado anteriormente por la Corporación RAND, que tampoco encontró una diferencia estadísticamente significativa entre la viabilidad de los planes de ataque biológicos generados con o sin la ayuda de un LLM.

Esto refleja la preocupación compartida por varias organizaciones y expertos sobre el potencial mal uso de la AI para ataques biológicos, por lo que se solicitan más investigaciones y regulaciones a medida que la IA se vuelve más poderosa y accesible.

Scroll al inicio