La escena es fácilmente reconocible. Un día se nos ocurre decirle a un amigo, por ejemplo, “Traigo ganas de comprarme un PlayStation”. Empezamos a cazar precios en internet. Unos días más tarde, navegando por Facebook, nos encontramos con publicidad anunciando un PS5 con “descuentos increíbles”. YouTube, de pronto, nos comienza a recomendar videos sobre cuál es la mejor consola de la nueva generación. Amazon nos anuncia que gente con nuestros intereses acaba de comprar Elden Ring. Y ya, el colmo es cuando nos llega directamente un mail diciendo que no se nos pase adquirir un PS5 a 18 meses sin intereses. Todo esto sucede por la cantidad de información que dejamos en la red y que es recopilada, procesada y utilizada por algoritmos impulsados por Inteligencia Artificial (IA); en gran medida, instrumentalizada para reconocer nuestros patrones y hábitos de consumo.

La IA se encuentra en constante aprendizaje. Toma cantidades enormes de datos (tanto a nivel individual como en el agregado) para predecir nuestros intereses y los momentos ideales para ofrecernos algo. Así funcionan las plataformas de streaming también, que van a saber qué película o serie nos va a picar mucho mejor que nosotros mismos. O ciertas redes sociales que lo que buscan es que pasemos el mayor tiempo posible de tiempo en ellas, ya sea para monetizar esa atención o implementar esa información en otro tipo de tecnología—muchas veces desconocida para los usuarios y los mercados, como es el caso de Tik Tok. Pero los alcances de la IA van mucho más allá del marketing y el entretenimiento. Abarcan la estrategia militar; detección y atención médica; planeación urbana e implementación de transporte público; así como una lista virtualmente infinita para privilegiar la automatización de procesos.

¿Ahí viene el Coco?

Al ser una tecnología poderosísima y una industria con potencial enorme, la IA hasta la fecha se ha visto beneficiada por poca, si no es que nula, regulación vigorosa. Apenas en 2017, el tamaño del mercado de este sector era de 1,100 millones de dólares anuales. El próximo año se calcula cerrará en casi 11,000. Y para 2030 se estima que podría alcanzar los 15 billones de dólares anuales a nivel mundial. En vistas de que es un sector que sigue sorteando curvas de aprendizaje, en buena medida se le ha permitido florecer sin muchos candados o constricciones. Al final del día, los avances en IA—sin importar si vienen de Google, Netflix, Amazon o la Universidad Carnegie Mellon—implican desarrollos importantes en casi cualquier industria; así como el algoritmo puede recomendar la canción perfecta para superar un rompimiento, también puede salvar vidas y ayudar a mitigar el cambio climático.

Pero tanta libertad ha llegado a su fin. La noticia pasó un poco desapercibida por la invasión rusa a Ucrania; sin embargo, es de gran relevancia para el futuro de la IA. China decidió crear un código de ética para la nueva generación de IA, una normativa que ha sido traducida al inglés como Internet Information Service Algorithmic Recommendation Management Provisions. Una serie de regulaciones que entraron en vigor el pasado 1 de marzo y que se entienden como parte de los esfuerzos chinos por convertirse en líderes mundiales en IA para 2030. La idea central de la legislación es que los humanos deben retener control absoluto sobre esta tecnología, imponiendo candados para que los ciudadanos decidan cuándo interactuar con IA, sin importar el tipo de plataforma o servicio en cuestión. Básicamente, para que las personas —y el Gobierno, por supuesto—controlen qué tipos de algoritmo recopilan su información.

La industria de la IA y el mundo entero a la expectativa

La legislación sobre IA de China es la primera del tipo a nivel mundial. Por un lado, propone principios de “explicabilidad” y transparencia algorítmica; es decir, todo algoritmo debe poder explicar a sus usuarios exactamente qué es lo que hace y qué datos se recopilan; asimismo, para qué serán empleados en un futuro posterior. Por otro, obliga a cualquier tipo de IA que opere en el país a evitar discriminación algorítmica de cualquier tipo; por ejemplo, cuando cambia precios de productos dependiendo de la persona y su historial de búsqueda. Además, es una normativa que plantea establecer mecanismos de emergencia y de prevención, particularmente frente a IA y algoritmos con capacidad de vulnerar la seguridad nacional del país. En buena medida, el documento busca tratar de entender posibles transformaciones sociales que acompañen la transición tecnológica, con miras a prevenir problemas futuros.

Todo lo anterior, aunque sobre IA, no es muy diferente a lo que se estableció en su prohibición a usos de videojuegos el año pasado.

Con peras y manzanas: prohibición de videojuegos en China

 

Lo que China está haciendo es tratar de adelantarse a la competencia. Al incluir este código de ética, básicamente trata de mostrarle al mundo que se toma en serio los alcances de la IA a futuro, pero también sus posibles obstáculos. La industria y el planeta estarán a la expectativa. Por el momento, la iniciativa ha sido sorprendentemente bien recibida por expertos, hacedores de política pública y legisladores internacionales. Al final del día, para que un sector con tantas implicaciones—buenas y malas—florezca, es necesario que suceda en contextos de certeza y certidumbre. La normativa china obligará a los países del mundo a afinar y complementar la propuesta para acelerar sus pasos en la carrera por conquistar la IA.

A ver cómo responde el algoritmo. 

Con peras y manzanas: lo que aún no sabemos de TikTok

 

Comentarios

Comenta con tu cuenta de Facebook