Un estudiante de Córdoba desató una polémica al utilizar inteligencia artificial para crear un video pornográfico con los rostros de sus compañeras. La denuncia presentada por el padre de una alumna ha iniciado una investigación en la Unidad Judicial Contravencional de Género. Esta situación subraya la necesidad urgente de regular el uso de la inteligencia artificial, algo que un diputado cordobés ya ha propuesto con un proyecto de ley específico.
La utilización indebida de la inteligencia artificial ha vuelto a estar en el centro de la atención pública esta semana. Un estudiante menor de edad de la Escuela Superior de Comercio Manuel Belgrano (ESCMB), dependiente de la Universidad Nacional de Córdoba (UNC), fusionó imágenes de mujeres sexualizadas con los rostros de sus compañeras y compartió el material en sitios pornográficos. Este acto ha generado una profunda preocupación y debate sobre los límites éticos de esta tecnología.
El video también contenía descripciones degradantes hacia las compañeras del estudiante, lo que llevó al padre de una de las víctimas a presentar una denuncia ante el fiscal Juan Ávila Echenique, quien investiga delitos contra la integridad sexual. Sin embargo, la Justicia se encontró con un vacío legal ya que las víctimas son mayores de edad. La ley actual solo prevé sanciones para la explotación sexual de menores de 18 años, lo que ha limitado la acción penal en este caso.
Las autoridades del colegio han intervenido a través del área de Asesoría en Violencia de Género y el equipo de Masculinidades, iniciando también un expediente en la Secretaría de Asuntos Académicos de la UNC. La directora de la institución, Andrea Marinelli, subrayó la importancia de identificar estos casos y trabajar en la prevención.
Regulación de la IA: Un reto global y local
La regulación del uso de la inteligencia artificial es un desafío que muchos países ya están abordando. La Unión Europea ha sido pionera al establecer un marco legal para garantizar la seguridad y transparencia en el uso de esta tecnología. En Estados Unidos, varios estados, como California, han avanzado en la gestión de riesgos asociados con la IA. Naciones Unidas, a través de la UNESCO, también ha emitido recomendaciones éticas sobre el uso de la inteligencia artificial.
En Argentina, el diputado cordobés Juan Brügge presentó un proyecto de ley a principios de junio para regular el uso de la inteligencia artificial de manera "responsable", buscando un equilibrio entre la innovación y la protección de los derechos humanos, la privacidad y la seguridad. El proyecto propone establecer parámetros para identificar los riesgos asociados con la IA y clasificar las prácticas en diferentes niveles de riesgo.
Brügge mencionó ejemplos de aplicaciones de alto riesgo, como aquellas que prometen apoyo psicológico en situaciones de crisis emocional. El proyecto también plantea la creación de una autoridad reguladora con facultades de control y sanción, así como la posibilidad de que los afectados por el mal uso de la IA puedan ejercer acciones judiciales con sanciones monetarias ajustadas para evitar la depreciación de la moneda local.
El diputado enfatizó que su propuesta se enfoca en un marco regulatorio civil, mientras que un proyecto complementario está en desarrollo para modificar el Código Penal y tipificar nuevos delitos relacionados con la IA. El proyecto de ley ya fue presentado al presidente de la Comisión de Comunicaciones de la Cámara de Diputados y se espera que las audiencias públicas reúnan a especialistas para avanzar en un proyecto concreto.
Brügge concluyó destacando la importancia del diálogo y la colaboración para desarrollar una regulación efectiva que proteja a la sociedad sin restringir el progreso tecnológico.