Expertos advierten que algo no funciona bien en muchos sistemas de IA
Expertos advierten que muchas IA se entrenan con imágenes sin consentimiento ni diversidad, lo que plantea riesgos éticos y de precisión

Un grupo de investigadores advirtió que podría haber un problema fundamental en los datos usados para entrenar los sistemas de inteligencia artificial en los que se confía cada vez más.
Gran parte de esos datos incluye imágenes obtenidas sin consentimiento, con poca diversidad y sin garantías de privacidad. Además de ser cuestionables desde el punto de vista ético, estas prácticas también podrían afectar a las personas que dependen de sistemas entrenados con ese material.
La advertencia surge tras la publicación de Fair Human-Centric Image Benchmark, un nuevo conjunto de imágenes de entrenamiento desarrollado por Sony AI. Su objetivo es ofrecer una base de datos obtenida de forma ética para evaluar si otros sistemas utilizan insumos recopilados con los mismos criterios.
La investigación se centra en los sistemas de visión por computadora, que alimentan desde tecnologías de reconocimiento facial hasta vehículos autónomos. Estos sistemas deben entrenarse con imágenes reales, incluidas fotos de personas y rostros, para funcionar con precisión.
El nuevo conjunto de datos busca establecer buenas prácticas en el uso de imágenes de entrenamiento, asegurando el respeto al consentimiento, la diversidad y la privacidad. La base incluye 10.318 imágenes de 1.981 personas provenientes de 81 países o regiones distintas.
Cada imagen está etiquetada con información demográfica y atributos físicos como edad, categoría de pronombre, ascendencia, color de piel y cabello. Además, las personas retratadas dieron su consentimiento informado, lo que permite usar esta base para evaluar si otros sistemas siguen los mismos principios éticos, según los investigadores.
En el artículo que acompaña la publicación, los autores señalan que la creación de este conjunto de datos fue más costosa y compleja que otros similares. Sin embargo, confían en que el uso de datos obtenidos de manera ética podría fortalecer la confianza del público en la inteligencia artificial.
El trabajo fue publicado bajo el título ‘Fair human-centric image dataset for ethical AI benchmarking’ en la revista Nature.
Traducción de Leticia Zampedri


