“Regular no significa frenar el desarrollo de la IA, sino garantizar que avance de forma ética y responsable”, asegura Duckerman en entrevista. Y es que detrás de los modelos generativos que hoy sorprenden al mundo, hay millones de datos utilizados sin consentimiento, incluyendo obras con derechos de autor, imágenes, videos, voces e incluso información biométrica.
Según Duckerman, el uso sin autorización de datos para entrenar modelos de IA ha generado un conflicto con los artistas y creadores. “No están en contra de la IA, solo piden una compensación justa”, afirma. Las plataformas, por su parte, han justificado el uso de estos datos argumentando que, al estar en la web, son de “dominio público”, una premisa legalmente débil.
En México, la discusión legislativa ha sido prolífica pero inefectiva. “Hay mucha ‘euforia legislativa’, muchas propuestas, pero ninguna aprobada”, explica el especialista. Desde 2023, su equipo trabaja en una propuesta técnica junto con otros expertos, basada en investigación y análisis, con la premisa de que la regulación debe ser global, pero también nacional y sectorial, adaptada a cada industria.
Mientras tanto, las consecuencias ya se sienten: estafas mediante clonación de voces, suplantación de identidad, desinformación y campañas fraudulentas en redes sociales. “Las plataformas venden espacios publicitarios a delincuentes sin verificar a quién le están vendiendo. Hemos rastreado perfiles falsos operados desde el extranjero que desaparecen tras cometer el fraude. No hay responsables ni protocolos claros”, advierte Duckerman.
Además del aspecto legal y técnico, Duckerman destaca un problema que rara vez se aborda con seriedad: el impacto emocional que la IA está generando en las personas. Habla del “estrés de aprendizaje” y del “síndrome del impostor tecnológico”, fenómenos que afectan a quienes sienten que no pueden mantenerse al día con la velocidad de los avances tecnológicos.
“Muchos profesionales viven ansiedad o temor a perder su empleo. Algunos no se sienten preparados, pero no lo dicen. Es normal sentirse así, pero no hay programas públicos que acompañen este proceso”, señala. Propone incluir a psicólogos, filósofos, expertos en ética y salud mental en los comités que definan las políticas de IA, para que la regulación contemple también a la persona, no solo a la tecnología.
La pregunta clave es si hay voluntad política para actuar. Para Duckerman, la respuesta es contundente: “No. Seguimos regulando con la lógica del siglo pasado.” A pesar de los esfuerzos de algunos sectores, la falta de continuidad, la politización del tema y la exclusión de expertos han impedido que México avance en esta agenda.
“No puedes regular con un curso básico ni permitir que las empresas tecnológicas dicten las reglas. No pueden ser juez y parte. Se necesita un marco regulatorio independiente, con participación ciudadana, que incluya certificaciones de uso responsable de IA”, puntualiza.
México, afirma, es uno de los países que más consume inteligencia artificial, pero de forma desorganizada y, en muchos casos, utilizando herramientas sin respaldo ni claridad sobre sus operaciones. “Si ese 65 % de usuarios tuviera conocimientos básicos sobre buenas prácticas, podríamos convertirnos en un país líder en el uso ético y estratégico de la IA.”
Duckerman concluye con un llamado claro: “La IA no va a detenerse, pero podemos decidir cómo usarla. Necesitamos educación tecnológica desde edades tempranas, marcos legales actualizados y programas públicos que protejan tanto a los creadores como a los usuarios.”
Mientras las primeras regulaciones podrían comenzar a discutirse formalmente a partir de septiembre, el camino hacia una política de inteligencia artificial verdaderamente ética, inclusiva y eficaz aún está en construcción.
@Newsline Report 2025