Cargando...
  • Alto contraste

Asia Pacífico | Observatorio Parlamentario

El andamiaje institucional que China está creando para desarrollar la IA

28 marzo 2024

A pesar de que la ley de Inteligencia Artificial (IA) que regirá a todo el ecosistema de innovación está proyectada para que entre vigor a finales de 2024, en los últimos años el gigante asiático ha puesto en marcha tres regulaciones sobre los algoritmos, tanto para controlar la discriminación, como para identificar contenidos y asegurar que la información sea confiable.

Imagen de la nota

La institucionalidad en IA es un asunto que preocupa a las grandes potencias tecnológicas mundiales, no solo por la necesidad de regular prácticas, sino también de sentar las bases para desarrollar una tecnología que va en ascenso vertiginoso. Si bien la Unión Europea ya cuenta con una legislación, el gigante asiático está iniciando una serie de iniciativas para darle sustento a una industria que podría ser la más grande en el Asia Pacífico. Más detalles, en la siguiente nota.

Prepararse para desarrollar una “tecnología prometedora"

Desde 2020 que China ha estado preparando su andamiaje institucional para el uso y desarrollo de la inteligencia artificial. Un informe BCN da cuenta de estas instituciones y da a conocer que tal construcción no ha sido una tarea fácil, pues ha sido necesaria la creación de un marco regulatorio equilibrado que por una parte limite el control estatal, mientras que por el otro pueda brindar el apoyo necesario para que las compañías se conviertan en competidoras globales.

Un artículo de Sarah Zheng y Jane Zhang publicado en la revista Time, dio cuenta de esta necesidad de conciliar seguridad e innovación, que estará expresada en siete agencias, siendo las más importantes la Administración del Ciberespacio de China (CAC) y la Comisión Nacional de Desarrollo y Reforma. En opinión de las autoras, aunque se han hecho cambios respecto de los borradores iniciales en cuanto al tipo de supervisión gubernamental, el interés radica en que el gigante asiático considera que esta tecnología es la más prometedora y controvertida de las últimas décadas.

Entre las medidas propuestas por China se destaca la exigencia de etiquetas llamativas a los contenidos que sean creados artificialmente, esto no sólo incluye textos sino también fotografías y videos. La idea de esta medida es evitar engaños y construir contenidos falsos con base en datos legítimos. A ello se agrega -señala el artículo en Time- la exigencia de que las empresas chinas proporcionen mecanismos claros para responder a las quejas públicas que surjan desde la ciudadanía respecto de sus contenidos y servicios.

Tres regulaciones enfocadas en los algoritmos

Una ampliación detallada de este andamiaje regulatorio e institucional en el gigante asiático es descrito por Matt Sheehan en un artículo del Carnegie Endowment for International Peace. Además de las reglas para identificar los contenidos generados artificialmente, señala que también se incluyen medidas para supervisar los algoritmos de recomendación que se generan en Internet.

Para Sheehan, este nuevo marco de gobernanza de la IA en China “remodelará la forma en que se construye e implementa la tecnología dentro de China” pero también la forma cómo se exportará la tecnología y conformarán las redes globales de investigación en esta temática. Ello, en contraposición a la inactividad de países como Estados Unidos que las consideran irrelevantes.

Sin embargo, las regulaciones van más allá de un mero control de contenidos, también las políticas que desarrolla en su artículo apuntan en específico a los algoritmos, más que a la IA, pues se trata de un campo más amplio de la tecnología, donde la gobernanza tiene campos más diversos y complejos para su efectiva realización. De tal forma, las tres regulaciones que destaca Sheehan sobre los algoritmos son la de algoritmos de recomendación (2021), las reglas para la síntesis profunda de contenido generado sintéticamente (2022); y el proyecto de reglas sobre IA generativa (2023).

De tal manera, la regulación de 2021 prohíbe la recomendación y protege a los trabajadores sujetos a la programación algorítmica. La de 2022 exige que se pongan etiquetas llamativas a los contenidos generados artificialmente, y la de 2023 manda que los datos utilizados para entrenar y entregar resultados se fundamenten en datos verdaderos y precisos. A ello se agrega la necesidad de que los desarrolladores presenten sus algoritmos en un Registro de Algoritmos de China, que es un repositorio público construido con el propósito de recopilar información sobre seguridad.

En opinión del autor, estas regulaciones -principalmente el registro de algoritmos- sirven como base del andamiaje regulatorio que a futuro facilitaría regulaciones sucesivas y un paso importante en la redacción de la Ley Nacional de IA que podría ver la luz entre 2024 y 2025. Mientras tanto, la Administración del Ciberespacio de China (CAC) sigue siendo el líder burocrático en materia de gobernanza, al igual que el Ministerio de Ciencia y Tecnología de China, cuya influencia podría incrementarse debido a las regulaciones.

La ley china sobre IA podría demorar

Un artículo publicado por Zeyi Yang en el MIT Technology Review y titulado “Cuatro cosas que hay que saber sobre las nuevas normas de IA de China en 2024” da cuenta de la posición del gigante asiático a nivel global, luego de que en 2023 se masificara el uso de Chat GPT en todo el mundo y millones de personas hablen de IA e intercatúen con ella, haciendo que su uso diario tenga un impacto real en nuestra realidad.

Este contexto está marcado a su vez por el anuncio de la Unión Europea que lanzó su Ley de Inteligencia Artificial, primera en el mundo que garantizará mejores condiciones para el desarrollo y uso de esta tecnología, además de aportar beneficios en la asistencia sanitaria, mejor transporte y fabricación de energía más sostenible.

Sin embargo, la posibilidad de que China avance en una legislación nacional en IA, es para Yang algo que no se vería tan pronto. Dentro de las primeras “cuatro cosas” que describe en su artículo está esta idea, respecto de que a diferencia de las otras regulaciones un nuevo articulado tomará más tiempo debido a que debe apuntar a un panorama completo, de manera tal que su publicación a finales de 2024 es “poco probable”.

La segunda idea es que el gobierno chino está diciéndole a las empresas chinas que desarrollan IA qué deben evitar. Esto a raíz de un borrador de la futura ley, elaborado por la Academia China de Ciencias Sociales, pero en una versión consultiva. Este documento, a pesar de no ser oficial, es una referencia útil sobre lo que el gigante asiático quiere lograr, pero también lo que no quiere hacer. Es por ello que tienen una “lista negativa” de áreas, productos o servicios existentes donde las empresas de IA deberían alejarse.

Una tercera idea es que en los modelos de evaluación de IA pueden participar terceros. Ello porque para que las regulaciones puedan hacer cumplir sus artículos en el corto plazo, es necesario que ante la existencia de una plataforma nacional para probar y verificar la seguridad de los modelos, exista apoyo de organizaciones de evaluación lideradas por terceros para que puedan implementar revisiones periódicas.

Por último, Yang plantea que “es probable que China sea indulgente con los derechos de autor”. Esto porque considera que en materia de propiedad intelectual en IA, es una tarea compleja saber quién le debe a quién. De igual manera, sostiene que es poco probable que las agencias administrativas chinas asuman una postura agresiva a la hora de investigar las infracciones.

Ahora bien, esta realidad nos da varias pistas sobre cuáles son las áreas y preocupaciones del gigante asiático respecto del desarrollo y avance de la IA, pero también respecto de las dificultades que podría enfrentar una eventual legislación en el tema. Frente a esto, cabe la interrogante respecto de la realidad chilena y sus principales desafíos.

Una mirada a la regulación de IA desde la realidad chilena

Tener una legislación o un conjunto de regulaciones para el desarrollo de la IA, pero también limitar algunas prácticas que podrían ser perniciosas para el ecosistema de innovación, es también parte de las inquietudes que actualmente tienen expertos en la materia como Alexis Apablaza-Campos, profesor titular de la Facultad de Comunicaciones de la Universidad UNIACC, además de investigador postdoctoral en la Universidad de Navarra, y Pompeu Fabra, en España.

En relación a la necesidad de contar con reglas de juego en el corto plazo, el investigador afirmó que es fundamental avanzar para no quedar rezagados. “Se está diciendo incluso aquí en Europa, donde se acaba de crear la primera legislación, que estamos quedando rezagados debido a que la tecnología avanza mucho más rápido. Actualmente, al hablar de IA generativa como Chat GPT -u otras herramientas similares- es sabido que tienen limitaciones en ciertos aspectos. Actualmente contamos con la tecnología GPT C4 que bastante potente, pero se espera que la GPT.5 esté por llegar y existen diversos competidores a nivel mundial intentando desarrollar tecnologías aún más avanzadas. Por lo tanto, es evidente la necesidad de actuar con rapidez debido a la velocidad con la que estas tecnologías emergentes están surgiendo y su accesibilidad para los usuarios en Chile”, señaló.

En cuanto a la diferenciación de contenidos y los controles a la información falsa que sea creada a través de IA, afirmó que es igualmente importante tener la capacidad de distinguir los distintos tipos de contenidos que se están produciendo. “Resulta especialmente relevante identificar y etiquetar claramente aquellos contenidos generados por IA en cada portal web o canal digital, brindando transparencia al usuario sobre su origen. Asimismo, es fundamental establecer posibles sanciones legales en caso de que se demuestre que un material fue creado por inteligencia artificial con el propósito de engañar a una comunidad. Estas medidas fomentarían un uso responsable de estas tecnologías emergentes. Ya se sabe que existen áreas y departamentos tecnológicos en Carabineros y la Policía de Investigaciones que pueden abordar estos temas y avanzar en esta dirección. Chile es un país altamente conectado en la región y cuenta con especialistas en informática, incluidos expertos en seguridad informática, que podrían colaborar para garantizar un control más efectivo”, agregó.

Por último, comentó que es fundamental establecer mecanismos de transparencia y trazabilidad para abordar estos desafíos y no limitar el desarrollo de la IA. “Desde el ámbito académico, se plantea la necesidad de no prohibir el uso de estas tecnologías, excepto en casos de plagio evidente con el objetivo de engañar. En lugar de ello, se propone promover la transparencia al exigir a los estudiantes revelar qué herramientas utilizaron, qué instrucciones siguieron y cuál fue el resultado obtenido. Esta trazabilidad brinda una experiencia completa que permite evaluar adecuadamente el proceso seguido por el estudiante y ofrecer orientación para mejorar los resultados. En este contexto, surge la cuestión sobre si implementar etiquetas o mecanismos transparentes podría limitar el desarrollo de estas tecnologías”, sentenció.

Por equipo Asia Pacífico: asiapacifico@bcn.cl


Comentarios

NOTA: como parte de su misión de promover el debate informado, respetuoso, tolerante e inclusivo, que permita vincular la labor de nuestro Congreso Nacional con la ciudadanía, la BCN se reserva el derecho de omitir comentarios y opiniones que pudieren afectar el respeto a la dignidad de las personas o instituciones, en pos de una sana convivencia democrática.

Videos AP

Selección de videos sobre Asia Pacífico