Twitter quiere eliminar los sesgos de la IA recompensando los errores
La inteligencia artificial (IA) trae consigo la promesa de un mundo mejor y más equitativo, como en los casos en que su uso eleva a las personas o Romper monopolios.
Sin embargo, el diseño de algoritmos y modelos también puede perpetuar la desigualdad, lo que se conoce como sesgo de IA.
‘Bonus’ el primer sesgo de IA de la industria
Twitter dijo la semana pasada que ofrecería una «recompensa» monetaria a los usuarios e investigadores por ayudar a erradicar los sesgos de la IA algorítmica en la plataforma de redes sociales.
El gigante tecnológico dijo que este sería el «primer concurso de recompensas algorítmicas en la industria», con premios de hasta $ 3,500 USD.
La competencia se basa en el software de «recompensas por errores» que ofrecen ciertos sitios y plataformas para encontrar agujeros de seguridad y vulnerabilidades, según los ejecutivos de Twitter Roman Choudhury y Jutta Williams.
«Es difícil encontrar sesgos en los modelos de aprendizaje automático y, a veces, las empresas detectan daños morales no deseados una vez que llegan al público», escribieron Choudhury y Williams en una publicación de blog.
«Queremos cambiar eso.»
Dijeron que el modelo de recompensa de los piratas informáticos promete eliminar los sesgos de la IA.
«Nos inspira cómo la comunidad de investigación y los piratas informáticos han ayudado a la industria de la seguridad a crear las mejores prácticas para identificar y mitigar vulnerabilidades con el fin de proteger al público», escribieron.
«Queremos hacer crecer una comunidad similar … con el fin de identificar de manera proactiva y colectiva los daños de los algoritmos».
El problema de los sesgos de la inteligencia artificial
La medida se produce en medio de crecientes preocupaciones sobre los sistemas de algoritmos automatizados, que, a pesar de los esfuerzos por ser neutrales, pueden incluir racistas u otras formas de sesgo, según los informes. Agencia de prensa de Francia.
Twitter, que a principios de este año lanzó su Iniciativa de Justicia Computacional, dijo en mayo que había descartado un sistema automatizado de recorte de imágenes después de que su revisión encontró sesgo en el algoritmo que controla el trabajo.
La plataforma de mensajería dijo que encontró que el algoritmo brindaba un «tratamiento desigual basado en diferencias demográficas», favoreciendo a blancos y hombres sobre negros y mujeres, y un sesgo de «cosificación» centrado en el pecho o las piernas de una mujer, descrito como una «mirada masculina». «
Implicaciones para los sesgos de la inteligencia artificial
en los Estados Unidos de America estudio reciente por el Departamento de Comercio de EE. UU. encontró que el reconocimiento facial identifica erróneamente la inteligencia artificial al identificar a las personas de color más que a las personas blancas. Esto luego genera preocupaciones de que, cuando es utilizado por entidades importantes como las fuerzas del orden público, podría exacerbar las injusticias contra las personas de color, particularmente cuando el prejuicio contra la POC es un problema frecuente en los Estados Unidos.
Otro estudio realizado por Georgia Tech encontró que las tarjetas de IA autónomas eran Malo para detectar personas de piel oscura. – No importa la hora del día. Esto esencialmente pone en riesgo la vida de los peatones de piel oscura.
Otro ejemplo es cuando Amazon usó su propia herramienta de reclutamiento «secreta», que resultó ser increíblemente parcial en contra de las mujeres solicitantes.
«El equipo ha estado diseñando software desde 2014 para revisar los currículos de los solicitantes de empleo con el objetivo de automatizar la búsqueda de los mejores talentos», dijeron a Reuters cinco personas familiarizadas con el esfuerzo. […]
«De hecho, el propio sistema de Amazon ha enseñado que los candidatos masculinos son los mejores. Ha penalizado los currículos que incluían la palabra» mujer «como» capitana del club de ajedrez femenino «. Bajó la clasificación de las graduadas de dos universidades femeninas, según personas familiarizadas con el asunto «. Reuters.
como compartir
La fecha límite para participar es el 6 de agosto de 2021 a las 11:59 p.m., hora del Pacífico. Los ganadores serán anunciados en el taller DEF CON AI Village organizado por Twitter el 9 de agosto de 2021.
Los ganadores serán invitados a presentar su trabajo durante el taller en DEF CON aunque la asistencia a la conferencia no es un requisito para la competencia.
Los equipos ganadores recibirán premios en efectivo a través de HackerOne:
- 3500 dólares estadounidenses primer lugar
- Subcampeón de 1.000 USD
- 500 USD 3er lugar
- $ 1,000 para los más innovadores
- $ 1,000 para la mayoría de los tipos de algoritmos generalizados (es decir, aplicable a la mayoría de los tipos de algoritmos).
Puede encontrar más información sobre el Desafío de recompensas de sesgo de inteligencia artificial de Twitter en su sitio. Página de HackerOne.