¿Pondrá Australia etiquetas a la Inteligencia Artificial? Las grandes tecnológicas en el punto de mira

Australia podría exigir a las empresas de tecnología que etiqueten el contenido creado por IA

El panorama tecnológico de Australia podría estar a punto de cambiar. El Ministro de Industria y Ciencia, Ed Husic, ha dado a conocer el plan del gobierno para abordar el uso seguro y responsable de la Inteligencia Artificial (IA) en el país.

Posibles marcas de agua para el contenido generado por IA

En su propuesta, las empresas tecnológicas podrían tener que poner marcas de agua o etiquetas en el contenido producido por la IA, como la plataforma de chat ChatGPT. Esta medida forma parte de la estrategia del gobierno para abordar los productos de IA «de alto riesgo» que evolucionan más rápido que la legislación actual.

Maximizando las utilidades de la IA minimizando los riesgos

El gobierno tiene como objetivo apoyar el uso continuo de IA de «bajo riesgo», a la vez que establece regulaciones más estrictas para ciertas aplicaciones, incluyendo coches autónomos y programas que evalúan solicitudes de empleo. Ed Husic indicó que, aunque los australianos comprenden el valor de la IA, desean ver que se identifiquen y aborden los riesgos asociados a ella.

  Multas millonarias para empresas que violen la nueva Ley de IA de la Unión Europea

A partir de una investigación de McKinsey, el informe concluye que la adopción de la IA y la automatización podría incrementar el Producto Interno Bruto de Australia hasta en 600 mil millones de dólares anuales. Sin embargo, también se resalta la preocupación pública acerca de la tecnología, con encuestas que muestran que sólo un tercio de los australianos cree que existen controles adecuados para el diseño y desarrollo de la IA.

Creación de un grupo asesor experto y nuevas medidas de transparencia

En respuesta a estas inquietudes, el gobierno se compromete a formar un grupo asesor experto en el desarrollo de políticas de IA. Asimismo, se inculcará un estándar de seguridad de IA voluntario para las empresas que deseen implementar la tecnología en sus sistemas y se comenzará a consultar con la industria acerca de nuevas medidas de transparencia.

También se estudiarán salvaguardias obligatorias, como las pruebas de prevención de riesgos y daños antes de la implementación de nuevos productos, así como medidas de responsabilidad como estándares de formación para los desarrolladores de software.

  La Inteligencia Artificial y el análisis de comportamiento: las armas invisibles contra ciberataques

Propuestas a futuro en materia de IA

El informe propone aumentar la transparencia en torno a la IA, incluyendo informes públicos sobre los datos en los que se entrena un modelo de IA. Además, se trabajará con la industria para considerar la posibilidad de un código voluntario que incluya marcas de agua o etiquetas en el contenido generado por IA.

Finalmente, el Ministro Husic recalcó la importancia de inculcar un pensamiento de seguridad y responsabilidad en las primeras etapas del diseño y desarrollo de la IA. También destacó el papel que desempeñará un cuerpo asesor en apuntalar el rápido desarrollo tecnológico y trazar el camino a seguir para futuras respuestas.

Scroll al inicio