ChubutLine.com "Periodismo Independiente" - Noticias, política y un análisis de la realidad diferente - directora@chubutline.com - redaccion@chubutline.com



7 julio, 2023

LOS NUEVOS DESAFÍOS REGULATORIOS

La inteligencia artificial en territorio gaucho: el Gobierno buscaría ‘peronizar’ y ponerle un impuesto al ChatGPT

El Gobierno creó una ‘guía ética’ para orientar el uso y desarrollo de la Inteligencia Artificial (IA) en Argentina bajo el concepto de que las Tecnologías de la Información y las Comunicaciones (TIC) deben tener ‘una mirada social’, además de paliar sus posibles efectos negativos desde el momento mismo de su creación. Sin embargo, a su sombra se desarrollan otros debates, como el uso de los datos personales y la necesidad de contar con normativas más robustas. Un informe de iProUP que ayuda a entender el contexto:

 

Inteligencia artificial: cómo se regula en Argentina y el mundo

A mediados de junio, el Parlamento europeo confirmó su interés en discutir la letra de la primera normativa integral propuesta en torno a la IA y cuyo consenso se espera para fin de 2023.

En líneas generales, se trata de una ley en proceso, que busca que los desarrollos sean seguros, transparentes, trazables, no discriminatorios, respetuosos con el ambiente, pero que también sean supervisados por personas y no por automatismos. También establece niveles de riesgo y ejemplos:

  • Limitados: sistemas que generan o manipulan contenidos de imagen, audio o video
  • Inaceptables: identificación biométrica en tiempo real y a distancia, como los de reconocimiento facial

En tanto, la Secretaría de Innovación Pública de la Argentina (SIP) publicó en el Boletín Oficial la Resolución 2/2023, con recomendaciones para desarrollar una IA fiable.

Agustina Brizio, subsecretaria de Tecnologías de la Información de la SIP dice que esta iniciativa «refleja una visión transversal a las políticas públicas mediadas por la tecnología, pero también en lo referido a los modelos de fomento a la adopción que impulsamos». La guía argentina está en la línea europea, pero con menor alcance:

 

Es moral y no obligatoria

Integra una estrategia para que las empresas locales que desarrollen IA (sobre todo las públicas) lo hagan desde una perspectiva ética y humana

Busca que toda decisión esté respaldada por una validación humana

La inteligencia artificial alarma y entusiasma en iguales proporciones, sobre todo, luego de que su versión generativa desarrollara contenidos creativos sin intervención humana. Un ejemplo de sus riesgos es la aparición de las deep fakes, anglicismo con el que se nombran las imágenes falsas, que parecen reales, pero resultan del uso de alguna herramienta de IA.

La funcionaria admite: «Queda un largo camino para construir un marco para poder atender, desde la proliferación de deep fakes, hasta estrategias concretas para el sector productivo».

 

Qué pasa con los datos personales

Los gobiernos de Argentina y EEUU realizaron un seminario para compartir miradas sobre la transferencia internacional de datos personales, regulaciones y acuerdos internacionales.

Beatriz Busaniche, presidenta de Fundación Vía Libre, define al encuentro como una «iniciativa de lobby de Estados Unidos para que la Argentina se vaya alineando a sus políticas internacionales y, sobre todo, a nivel de comercio».

Según la experta, las conversaciones se centraron en el flujo transfronterizo de datos y la IA, dos aspectos íntimamente vinculados: el primero es un insumo central para la producción y entrenamiento del segundo.

Busaniche remarca que «EEUU promueve el libre flujo transfronterizo de datos, incluyendo los datos personales. Tiene una política de certificaciones y acuerdos comerciales multilaterales a los que llegaron con la comunidad de Asia-Pacífico, que quieren exportar al resto del mundo y planean traer a América Latina».

La Fundación Via Libre se opone a este tipo de convenios porque «tiene que haber regulaciones más protectoras», confía Busaniche, y recuerda que la Argentina avanza para renovar la legislación de datos personales, cuyo anteproyecto el Gobierno elevó al Congreso para su debate.

Para Busaniche, el anteproyecto «es un paso adelante, superador de lo que hay hoy», aunque advierte la importancia de cuidar los datos inferidos, es decir, aquellos que surgen del procesamiento analítico de comportamientos y usos de las personas en Internet, por ejemplo, y que Via Libre brega para que sean tratados y protegidos al igual que los personales.

«La última versión del anteproyecto analizada incluye cláusulas afines con la propuesta de EEUU para que las empresas puedan tener excepciones a la entrega y al cumplimiento de ese marco de derechos, si es que eso colisiona de alguna manera con secretos comerciales o industriales de las empresas», agrega la especialista.

El cuidado de la privacidad y datos personales son derechos humanos y, por ende, los patrimoniales no pueden tener preeminencia según establece la Constitución Nacional. Para Busaniche, un enfoque en el que este lineamiento ético de la IA está en sintonía, pero parece poco.

«Peor es nada», sintetiza la especialista, quien advierte que «el marco legal tiene que ser mucho más riguroso que un marco de lineamientos éticos opcionales». A modo de ejemplo, propone «pensar un desincentivo económico a la captura y a la rapiña permanente de los datos, es decir, que las empresas tributen, paguen y cumplan con marcos legales vigentes».

Y señala la importancia de que el Estado genere capacidades locales, «ya que es la única forma de revertir este proceso asimétrico del desarrollo de la inteligencia artificial a nivel global».

Por qué debería seguirse el caso de Estonia

«El significado que la Inteligencia Artificial tiene para mí es la posibilidad de dialogar con el contenido», valora Gustavo Giorgetti, fundador de ThinkNet SA y evangelizador de la implementación del modelo de integrabilidad de datos que realizó Neuquén, por ejemplo, inspirado en el modelo del país más digital del mundo, Estonia.

Para Giorgetti, la IA es un asistente al que cada uno pueda entrenar según sus intereses y que le ayude a dialogar con determinados datos.

«Aquí cobra mayor importancia la calidad de la información, es decir, que la fuente sea auténtica, no se replique y realmente haya un acceso controlado», añade el especialista, e insiste en la importancia de adoptar una normativa para la convivencia digital llamada Ecosistema Digital de Integrabilidad (EDI), según la norma IRAM 17610, de reciente publicación que garantiza trazabilidad, confidencialidad y seguridad en el intercambio de datos.

«Es un manotazo de ahogado», dice Giorgetti sobre la creación de instrumentos como la guía ética de referencia. Propone que el Gobierno se concentre en trabajar sobre «la gobernanza de toda la tecnología, que es lo que hace Estonia. con reglamentaciones que ubican a cada tecnología en el lugar que le corresponde».

A groso modo, ese país europeo desarrolló un modelo por el cual designa a los ciudadanos como sus propios defensores de su intimidad, o los disponibiliza en casos excepcionales y solo ante determinados actores; como los médicos que atiendan una emergencia, situación en la que es necesario conocer la identidad y la salud de una persona inconsciente.

Aunque la Argentina trabaje en la integración con gobernanza de datos, los expertos consultados coinciden en que falta camino por recorrer. Así como la normativa vinculada a la protección de datos, enfrenta los tiempos de la democracia en la Argentina, en el mundo entero hay discusiones regulatorias que no condicen con el ritmo de la innovación.

«Los avances tecnológicos nos vienen empujando a repensar la lógica con la que se construyen los marcos regulatorios», concluye Brizio.

Cabe destacar que por ejemplo, la versión paga de ChatGPT ya está disponible en Argentina y tiene un costo de u$s 20 mensuales. Para conocer su precio en pesos argentinos, hay que sumarle los impuestos al cambio oficial: IVA (21%), PAIS (8%), y IG/IBP (45%); esto se debe a que es un servicio del exterior.
*iP/by Noelia Tellez Tejada