Durante las últimas dos décadas hemos vivido una revolución tecnológica sin precedentes que ha permeado toda nuestra cultura, desde el modo en que trabajamos y nos relacionamos, hasta los estándares de seguridad y privacidad, con los complejos que implican. Esta revolución digital está comandada por el poder de la inteligencia artificial, que cada vez va ganando más terreno en prácticamente todas las áreas imaginables, desde la generación de arte hasta la contratación de nuevo personal, el reconocimiento facial y la creación de contenido escrito de todo tipo, desde poesía hasta artículos científicos o notas periodísticas que pueden resultar en fake news.

Los dilemas éticos que trae consigo esta revolución digital son muchísimos, y es difícil seguirle la pista a la velocidad con que se van generando nuevas aplicaciones de los algoritmos y la escalabilidad que poseen para cada vez poder analizar cuerpos de datos más grandes. Uno de los puntos centrales, que ha sido apuntado por muchas personalidades del big tech, entre ellas Elon Musk, el CEO de Tesla, Space X y Neuralink, su compañía de interfaces cerebro-computador que tiene como ojetivo a largo plazo permitir una simbiosis beneficiosa con la inteligencia artificial, es precisamente la necesidad de aumentar la fiscalización.

Según Musk estamos en un punto similar a lo que ocurría durante las primeras décadas de la industria automovilística, cuando los cinturones de seguridad aún no eran parte de la norma. Solo después de una década de acumular evidencias de su utilidad, y con millones de vidas perdidas en accidentes automovilísticos, se legalizó la obligación de que las compañías de autos los incluyeran en el diseño original, cosa a la que, inexplicablemente, se negaban.

Si bien los complejos éticos de la inteligencia artificial todavía no cuentan con millones de muertes en su prontuario, sí hay puntos críticos que han comenzado a ser expuestos durante los últimos años. Uno de ellos salió a la luz en una auditoría de 2018, aplicada a sistemas comerciales de reconocimiento facial realizada por los investigadores de IA Joy Buolamwini y Timnit Gebru, quienes descubrieron que el sistema no reconocía a las personas de piel más oscura tan bien como a las blancas.

En el caso de las mujeres de piel oscura, la tasa de error era de hasta el 34%. Como señala el investigador de IA Abeba Birhane en un nuevo ensayo en Nature, la auditoría "instigó un cuerpo de trabajo crítico que ha expuesto el sesgo, la discriminación y la naturaleza opresiva de los algoritmos de análisis facial". La esperanza es que, al realizar este tipo de auditorías en diferentes sistemas de IA, podremos detectar mejor los problemas y mantener una conversación más amplia sobre cómo los sistemas de IA están afectando a nuestras vidas.

Los reguladores se están poniendo al día, y eso está impulsando en parte la demanda de auditorías. Una nueva ley en la ciudad de Nueva York comenzará a exigir que todas las herramientas de contratación impulsadas por la IA sean auditadas para detectar sesgos a partir de enero de 2024. En la Unión Europea, las grandes empresas tecnológicas tendrán que realizar auditorías anuales de sus sistemas de IA a partir de 2024, y la próxima Ley de IA exigirá auditorías de los sistemas de IA de "alto riesgo".

Uno de los grandes obstáculos en este tipo de procedimientos es su novedad, ya que no haty precedentes de cómo realizar este tipo de auditoría. Aún no existen procedimientos estandarizados y no hay suficientes personas con las habilidades adecuadas para hacerlas. Basta pensar que la mayoría de los especialistas en inteligencia artificial trabajan diseñándola y produciéndola, en vez de fiscalizándola. Las pocas auditorías que se llevan a cabo hoy en día son, en su mayoría, ad hoc y varían mucho en cuanto a su calidad, ha dicho Alex Engler, que estudia la gobernanza de la IA en la Brookings Institution. Un ejemplo que citó es el de la empresa de contratación de IA HireVue, que dio a entender en un comunicado de prensa que una auditoría externa determinó que sus algoritmos no tenían ningún sesgo. Resulta que era una tontería: la auditoría no había examinado realmente los modelos de la empresa y estaba sujeta a un acuerdo de confidencialidad, lo que significaba que no había forma de verificar lo que había encontrado. En esencia, no era más que una maniobra de relaciones públicas.

Una de las formas en que la comunidad de la IA está tratando de abordar la falta de auditores es a través de los concursos de recompensas por sesgos, que funcionan de manera similar a las recompensas por errores de ciberseguridad, es decir, que llaman a la gente a crear herramientas para identificar y mitigar los sesgos algorítmicos en los modelos de IA. Hace un par de semanas se puso en marcha uno de estos concursos, organizado por un grupo de voluntarios entre los que se encuentra Rumman Chowdhury, director de IA ética de Twitter. El equipo que lo organiza espera que sea el primero de muchos.

No hay duda que esta estrategia es una buena idea para crear incentivos con el propósito de que la gente aprenda las habilidades necesarias para hacer auditorías, y también para empezar a crear normas sobre cómo deberían ser las auditorías, mostrando qué métodos funcionan mejor.

El crecimiento de estas auditorías sugiere que un día podríamos ver advertencias al estilo de las cajetillas de cigarrillos de que los sistemas de IA podrían perjudicar su salud y seguridad. En otros sectores, como el químico o el alimentario, se realizan auditorías periódicas para garantizar la seguridad de los productos. ¿Podría algo así convertirse en la norma de la IA? ¿Quizá un día las empresas que busquen ofertas de sistemas inteligencia artificial vean un logo como “Alto en sesgos”, como ocurre con las calorías, grasas y azúcares en los alimentos?  Un punto central, que ojalá pase a formar parte de los protocolos, es que cualquiera que posea y opere sistemas de IA debería estar obligado a realizar auditorías periódicas, como sostienen Buolamwini y sus coautores en un artículo publicado en junio.

Afirman que las empresas deberían estar obligadas por ley a publicar sus auditorías de IA, y que se debería notificar a las personas cuando hayan sido objeto de toma de decisiones algorítmicas. ¿Al fin y al cabo, si tanto proponen una sociedad de la transparencia por que las compañías con más poder en el campo de la IA no son transparentes con sus datos?

Otra forma de hacer que las auditorías sean más efectivas es rastrear cuándo la IA causa daños en el mundo real, dicen los investigadores. Hay un par de esfuerzos para documentar los daños causados por la IA, como la Base de Datos de Vulnerabilidad de la IA y la Base de Datos de Incidentes de la IA, construidas por investigadores y empresarios voluntarios de la IA. El seguimiento de los fallos podría ayudar a los desarrolladores a comprender mejor las trampas o los casos de fallos involuntarios asociados a los modelos que utilizan, dice Subho Majumdar, de la empresa de software Splunk, que es el fundador de la Base de Datos de Vulnerabilidad de la IA y uno de los organizadores del concurso de recompensas por prejuicios.

Pero sea cual sea la dirección que tomen las auditorías, escriben Buolamwini y sus coautores, las personas más afectadas por los daños causados por los algoritmos -como las minorías étnicas y los grupos marginados- deben desempeñar un papel fundamental en el proceso.

Tratándose de un tema con impacto global, que a la larga nos afecta a todos directa o indirectamente, es de vital importancia que las auditorías ganen cada vez más terreno en el campo de la inteligencia artificial y cada vez haya personas más capacitadas con los incentivos necesarios y la condición de una transparencia real, para que sepamos qué tipo de tecnología estamos ocupando y qué consecuencias tiene su aplicación con respecto a los sesgos, la seguridad y la privacidad, quizá los tres puntos más importantes de todo el asunto.