Tecnología
Inteligencia artificial: China busca la delantera con la técnica del reconocimiento facial
por Zulfikar Abbany
Destacadas
Te puede interesar
Los más leídos
La República Popular China se ha fijado una meta de aquí a diez años que inquieta a Occidente.
En la República Popular China se trabaja intensamente desde hace años en la optimización de los sistemas de aprendizaje maquinales y el desarrollo de la inteligencia artificial, tanto en el sector privado, con fines comerciales, como en el gubernamental y el académico. Y gracias a la «santísima trinidad” conformada por la compañía Alibaba (comercio electrónico y almacenamiento de datos en las nubes informáticas), el motor de búsqueda Baidu (uno de los sitios más visitados en Internet) y la empresa Tencent (productos, servicios y publicidad web), el gigante asiático está bien encaminado.
También la labor de la compañía SenseTime (la empresa emergente dedicada a la tecnología de reconocimiento facial mejor valorada a escala global) ha contribuido a que China se destaque en el campo de la inteligencia artificial.
Pero desde marzo de 2016, cuando el programa AlphaGo desarrollado por Google DeepMind venció a Lee Sedol en el juego de estrategia chino Go, se cree que el Gobierno chino ha redoblado sus esfuerzos para convertirse en el líder mundial de la inteligencia computacional. No parece haber calado bien en Pekín el hecho de que un sistema creado por una empresa extranjera derrotara a un ciudadano chino –el campeón indiscutible del Go entre los humanos– en un antiquísimo juego chino, el preferido por los militares de alto rango, según explica Jeffrey Ding, investigador del Programa Gobernabilidad de la Inteligencia Artificial de la Universidad de Oxford, en Gran Bretaña. Poco después, a principios de 2017, China incluyó el plan Inteligencia Artificial 2.0 en su programa Megaproyectos 2030 para la Ciencia y la Innovación Tecnológica.
Estados Unidos, el gran rival
Y, en julio de 2017, China hizo público su proyecto Una Nueva Generación en el Desarrollo de Inteligencia Artificial, que cita a la inteligencia artificial como «foco de la competición internacional”. Ahora se dice que la élite política y económica china está embarcada en una nueva carrera tecnológica, similar a la carrera espacial que marcó al período de la Guerra Fría. Paul Scharre, del Centro para una Nueva Seguridad Estadounidense (CNAS, sus siglas en inglés), sostiene que una nueva carrera centrada en el desarrollo de inteligencia artificial puede ser incluso más intensa, porque no pondrá a competir a dos potencias, sino a más, en diferentes continentes y en distintas áreas de la ciencia y la tecnología. «Los objetivos de China son ambiciosos y alcanzables, pero todavía no son una certeza”, comenta Ding, de Oxford.
A sus ojos, Estados Unidos sigue teniendo las mejores universidades y ésta continúan atrayendo a los investigadores más sobresalientes. «De ahí que sea improbable que China desplace a Estados Unidos”, señala Ding. China aspira a transformarse en el «principal centro de innovación en materia de inteligencia artificial” de aquí a dos lustros. Según información proveída por los centros de investigación de políticas públicas New America y The Foundation for Law and International Affairs, China tiene pautado hacer descubrimientos importantes en «inteligencia inspirada en el cerebro humano, inteligencia autónoma, inteligencia híbrida, inteligencia colectiva” con miras a aplicarla a la producción, al uso de los medios de subsistencia, a la gobernanza social y a la educación. China acaba de publicar el primer libro de texto «IA”.
Los alcances de la IA
Su autor es el fundador de SenseTime, Tang Xiaoou. Se tiene pensado impartir cursos relacionados con inteligencia artificial tanto en las escuelas primarias como en las secundarias. Pero, ¿qué hay del aspecto ético del uso de la inteligencia artificial? Stefan Brehm, del Centro para el Estudio del Oriente y el Sudeste Asiático de la Universidad de Lund, en Suecia, asegura que los niños y jóvenes ya están siendo monitorizados mediante mecanismos para el reconocimiento facial con miras a detectar cuán atentos están durante las clases. Brehm también critica el uso político que ya se le da a la tecnología como instrumento para el control social. «El Gobierno mismo lo dice: queremos castigar a aquellos que sean desleales y premiar a los buenos ciudadanos”, cuenta el investigador sueco. ¿Cómo reacciona la ciudadanía a los riesgos de la inteligencia artificial?
«Uno pensaría que en un país regido por un Gobierno autoritario la gente estaría preocupada; pero la mayoría de las personas les da la bienvenida a estas tecnologías. Y es que muchas de ellas se han percatado también de que las redes sociales pueden servir para rastrear a quienes cometen actos de corrupción. Eso les devuelve la sensación de justicia porque se piensa que un algoritmo es una entidad más objetiva que juzga a todo el mundo basándose en los mismos criterios”, arguye Brehm. Al ser consultado sobre la ilusión de justicia que ciertos sistemas digitales pueden ofrecer, Ding insta a suspender por un momento la falsa creencia en la presunta docilidad de los chinos y en su supuesta ignorancia del flanco ético de los desarrollos tecnológicos. De hecho, dice, el plan nacional para el progreso de la inteligencia artificial contempla aspectos éticos.
Por un lado, una de las metas es que la investigación de la inteligencia computacional tenga el carácter de fuente abierta, es decir, abierta a la inspección y a la colaboración. Por otra parte, los impulsores del proyecto han planteado la necesidad de crear códigos éticos de conducta y reforzar la consciencia sobre los posibles riesgos de la inteligencia artificial. «Hay algunos tópicos que parecen tabú. Yo he buscado discusiones online sobre la tecnología del reconocimiento facial o los códigos de respuesta rápida (QR) y su implementación para rastrear a personas concretas y no he encontrado mucho en la esfera pública. Pero hay otros temas que generan discusiones muy activas, como la protección de los datos personales, la privacidad, la prevención de filtraciones o los sesgos contenidos en los algoritmos debido a las creencias y prejuicios de sus programadores”, esgrime Ding, de la Universidad de Oxford.
Zulfikar Abbany (ERC/CP)
Zulfikar Abbany
ARTÍCULOS MÁS RECIENTES DEL AUTOR
Suscríbete al boletín
No te pierdas la información más importante de PRODAVINCI en tu buzón de correo