La industria tecnológica intentó reducir el sesgo en IA. Trump quiere acabar con esos esfuerzos

CAMBRIDGE, Massachusetts, EE.UU. (AP) — Después de retirarse de sus programas de diversidad, equidad e inclusión en el lugar de trabajo, las empresas tecnológicas podrían ahora enfrentar un segundo reajuste sobre sus esfuerzos de inclusividad en productos de inteligencia artificial.

En la Casa Blanca y el Congreso liderado por los republicanos, la idea de que la IA es demasiado progresista ha reemplazado a la discriminación algorítmica dañina como el problema a resolver. Los esfuerzos pasados para “avanzar en la equidad” en el desarrollo de IA y frenar la producción de “resultados dañinos y sesgados” son ahora objeto de investigación, según citaciones enviadas a Amazon, Google, Meta, Microsoft, OpenAI y otras diez empresas tecnológicas el mes pasado por el Comité Judicial de la Cámara de Representantes.

Y la oficina que establece los estándares del Departamento de Comercio de Estados Unidos ha eliminado menciones de equidad en IA, seguridad y “IA responsable” en su llamado a la colaboración con investigadores externos. En su lugar, da instrucciones a los científicos de que se centren en “reducir el sesgo ideológico” de una manera que “permita la prosperidad humana y la competitividad económica”, según una copia del documento obtenida por The Associated Press.

En cierto modo, los trabajadores tecnológicos están acostumbrados a un cambio brusco de prioridades impulsadas por Washington que afectan su trabajo.

Pero el último cambio ha generado preocupaciones entre los expertos en el campo, incluido el sociólogo de la Universidad de Harvard Ellis Monk, quien hace varios años fue contactado por Google para ayudar a hacer sus productos de IA más inclusivos.

En ese entonces, la industria tecnológica ya sabía que tenía un problema con la rama de la IA que entrena a las máquinas para “ver” y entender imágenes. La visión por computadora tenía un gran potencial comercial, pero reflejaba los sesgos históricos encontrados en tecnologías de cámaras anteriores que retrataban a personas negras y morenas de manera poco favorecedora.

“Las personas negras o de piel más oscura aparecían en la imagen y a veces nos veíamos ridículos”, dijo Monk, investigador del colorismo, una forma de discriminación basada en los tonos de piel de las personas y otras características.

Google adoptó una escala de color inventada por Monk que mejoró cómo sus herramientas de imagen de IA retratan la diversidad de tonos de piel humana, reemplazando un estándar de décadas originalmente diseñado para médicos que trataban a pacientes blancos de dermatología.

“Los consumidores definitivamente tuvieron una respuesta muy positiva a los cambios”, expresó.

Ahora Monk se pregunta si tales esfuerzos continuarán en el futuro. Aunque no cree que su Escala Monk de tonos de piel se vea amenazada porque ya está integrada en docenas de productos en Google y otros lugares, incluidos teléfonos con cámara, videojuegos, generadores de imágenes de IA, él y otros investigadores temen que el nuevo ambiente esté paralizando futuras iniciativas y financiamiento para hacer que la tecnología funcione mejor para todos.

“Google quiere que sus productos funcionen para todos, en India, China, África, etcétera. Esa parte es un poco inmune al DEI”, comentó Monk, que empleó un acrónimo en inglés para diversidad, equidad e inclusión. “Pero, ¿podría reducirse el financiamiento futuro para ese tipo de proyectos? Absolutamente, cuando el ambiente político cambia y cuando hay mucha presión para llegar al mercado muy rápidamente”.

Trump ha recortado cientos de subvenciones de financiamiento en ciencia, tecnología y salud que tocan temas de DEI, pero su influencia en el desarrollo comercial de chatbots y otros productos de IA es más indirecta. Al investigar a las empresas de IA, el representante republicano Jim Jordan, presidente del comité judicial, dijo que quiere averiguar si el gobierno del expresidente Joe Biden “coaccionó o coludió con” ellas para censurar expresiones legales.

Michael Kratsios, director de la Oficina de Política de Ciencia y Tecnología de la Casa Blanca, dijo este mes en un evento en Texas que las políticas de IA de Biden estaban “promoviendo divisiones sociales y redistribución en nombre de la equidad”.

El gobierno de Trump declinó autorizar una entrevista a Kratsios, pero citó varios ejemplos de lo que quiso decir. Uno era una línea de una estrategia de investigación de IA de la era Biden que decía: “sin controles adecuados, los sistemas de IA pueden amplificar, perpetuar o exacerbar resultados inequitativos o indeseables para individuos y comunidades”.

Incluso antes de que Biden asumiera el cargo, un creciente cuerpo de investigación y anécdotas personales estaba atrayendo atención sobre los daños del sesgo de la IA.

Un estudio mostró que la tecnología de vehículos autónomos tiene dificultades para detectar a peatones de piel más oscura, lo que les pone en mayor peligro de ser atropellados. Otro estudio que pedía a generadores populares de imágenes a partir de texto que hicieran una imagen de un cirujano encontró que producían un hombre blanco aproximadamente el 98% del tiempo, mucho más alto que las proporciones reales incluso en un campo dominado por hombres.

El software de reconocimiento facial para desbloquear teléfonos identificaba erróneamente rostros asiáticos. La policía en ciudades de Estados Unidos arrestó erróneamente a hombres negros basándose en coincidencias falsas de reconocimiento facial. Y hace una década, la propia aplicación de fotos de Google clasificó una imagen de dos personas negras en una categoría etiquetada como “gorilas”.

Incluso los científicos del gobierno en el primer gobierno de Trump concluyeron en 2019 que la tecnología de reconocimiento facial estaba funcionando de manera desigual según la raza, el género o la edad.

La elección de Biden impulsó a algunas empresas tecnológicas a acelerar sus esfuerzos en la equidad de IA. La llegada en 2022 de ChatGPT de OpenAI añadió nuevas prioridades, provocando un auge comercial en nuevas aplicaciones de IA para redactar documentos y generar imágenes, lo que a su vez presionó a empresas como Google a relajar su cautela y ponerse al día.

Luego vino el chatbot de IA Gemini de Google, y un lanzamiento de producto defectuoso el año pasado que lo convertiría en el símbolo de la IA demasiado progresista que los conservadores esperaban desarmar. Dejadas a su suerte, las herramientas de IA que generan imágenes a partir de un texto son propensas a perpetuar los estereotipos acumulados de todos los datos visuales con los que fueron entrenadas.

El de Google no fue diferente, y cuando se le pidió que representara a personas en varias profesiones, era más probable que favoreciera rostros de piel más clara y hombres, y, cuando se elegían mujeres, mujeres más jóvenes, según la propia investigación pública de la empresa.

Google intentó colocar salvaguardas técnicas para reducir esas disparidades antes de lanzar el generador de imágenes de IA de Gemini hace poco más de un año. Terminó compensando en exceso el sesgo, lo que situaba a personas de color y mujeres en entornos históricos inexactos, como al responder a una petición sobre padres fundadores estadounidenses con imágenes de hombres en atuendos del siglo XVIII que parecían ser negros, asiáticos e indígenas estadounidenses. Google se disculpó rápidamente y desconectó temporalmente la función, pero la indignación se convirtió en un grito de guerra adoptado por la derecha política.

El director general de Google, Sundar Pichai, estaba sentado cerca del vicepresidente JD Vance cuando este utilizó una cumbre de IA en París en febrero para denunciar el avance de “programas sociales completamente antihistóricos a través de la IA”, y mencionó el momento en que el generador de imágenes de IA de Google estaba “tratando de decirnos que George Washington era negro, o que los soldados estadounidenses en la I Guerra Mundial eran, en realidad, mujeres”.

“Tenemos que recordar las lecciones de ese momento ridículo”, declaró Vance en la reunión. “Y lo que sacamos de ello es que el gobierno de Trump garantizará que los sistemas de IA desarrollados en Estados Unidos estén libres de sesgo ideológico y nunca restrinjan el derecho de nuestros ciudadanos a la libertad de expresión”.

Una exasesora científica de Biden que asistió a ese discurso, Alondra Nelson, dijo que el nuevo enfoque del gobierno de Trump en el “sesgo ideológico” de la IA es en algunos aspectos un reconocimiento a años de trabajo para abordar el sesgo algorítmico que puede afectar al acceso a la vivienda, las hipotecas, la atención médica y otros aspectos de la vida de las personas.

“Fundamentalmente, decir que los sistemas de IA están ideológicamente sesgados es decir que identificas, reconoces y te preocupas por el problema del sesgo algorítmico, que es el problema que nos ha preocupado a muchos de nosotros durante mucho tiempo”, dijo Nelson, la exdirectora interina de la Oficina de Política de Ciencia y Tecnología de la Casa Blanca que coautorizó un conjunto de principios para proteger los derechos civiles y las libertades civiles en aplicaciones de IA.

Pero Nelson no ve mucho espacio para la colaboración en medio de las críticas a las iniciativas de IA equitativa.

“Creo que en este espacio político, desafortunadamente, eso es bastante improbable”, comentó. “Los problemas que han sido designados de diferentes maneras —discriminación algorítmica o sesgo algorítmico por un lado, y sesgo ideológico por el otro— lamentablemente se verán como dos problemas diferentes”.

___

Esta historia fue traducida del inglés por un editor de AP con la ayuda de una herramienta de inteligencia artificial generativa.

Business / technology / AI reporter