OpenAI, el notable nombre en el ámbito de la Inteligencia Artificial (IA), ha renovado recientemente su política de uso, puliendo sus limitaciones en términos de aplicaciones militares.
Desaparece la referencia a la prohibición militar en OpenAI
Dentro de las últimas actualizaciones en las directrices que la compañía brinda a sus usuarios, ha desaparecido el lenguaje específico que prohibía la utilización de su tecnología en actividades «militares» y de «guerra». Sin embargo, al mismo tiempo, el veto al «desarrollo y uso de armas» sigue intacto. Esto ha suscitado cierta curiosidad en la comunidad tecnológica: ¿Qué significa realmente este cambio en su política?
Actualizando las reglas del juego
No es infrecuente que una entidad como OpenAI modifique sus reglas a medida que avanza tecnológicamente. Al examinar detenidamente su «registro de cambios», nos encontramos con varias actualizaciones desde febrero de 2021. Las variaciones pueden tener que ver con aspectos tan intrincados como las actividades no permitidas en sectores de «alto riesgo».
El cambio reciente en sus políticas se presentó como un esfuerzo para hacerlas «más claras» y proporcionar una «guía más definida» a sus usuarios.
El antes y después en la regulación de uso de OpenAI
Hasta hace poco, la política de uso de OpenAI claramente indicaba que el uso «militar y bélico» no era aceptable. Además, mencionaba explícitamente el «desarrollo de armas» y cualquier contenido que pudiera incitar o representar ciertos actos perjudiciales para los usuarios.
La redacción revisada no menciona en ningún lugar las palabras «militar» y «bélico». En lugar de ello, insta a los usuarios a no usar su tecnología para infringir daño a individuos o propiedades y reitera la prohibición del desarrollo de armas.
¿Cómo debemos interpretar este cambio?
Interpretaciones varían entre expertos. Algunos creen que podría ser un simple intento de hacer las regulaciones «más claras». OpenAI, por su parte, insiste en que el propósito de la revisión es proporcionar pautas universales y fácilmente aplicables. Sin embargo, algunos analistas ven este cambio como una posible «suavización» de la postura de OpenAI ante el uso militar de sus recursos y herramientas.
Las implicaciones del cambio y la respuesta del sector
Es importante entender que, si bien ninguna tecnología de OpenAI puede ser utilizada directamente para acciones dañinas, hay tareas que sus herramientas pueden facilitar, incluyendo escritura de código y tramitación de pedidos. Los recursos de OpenAI podrían, por tanto, facilitar actividades en grandes volúmenes de documentación, por ejemplo.
Este cambio deja en evidencia las discusiones continuas acerca del uso de la inteligencia artificial en el sector militar y cómo las empresas deben navegar estos dilemas éticos. Con suerte, la transparencia y la comunicación abierta continuarán marcando el camino a seguir en este innovador y exigente ámbito.