Human Rights Watch (HRW) ha denunciado que modelos de inteligencia artificial están siendo entrenados con fotos de niños, obtenidas sin consentimiento, a pesar de los esfuerzos de los padres para proteger la privacidad de sus hijos. El conjunto de datos LAION-5B, utilizado para entrenar estos modelos, contiene imágenes de niños recolectadas de diversas fuentes públicas, como blogs y vídeos de YouTube. Estas imágenes a menudo incluyen información sensible, como nombres y ubicaciones, exponiendo a los niños a riesgos significativos de privacidad y seguridad.
El problema se agrava porque, una vez que estas imágenes son utilizadas para entrenar modelos de IA, no hay forma de “desaprender” esta información, lo que perpetúa el riesgo a largo plazo. Investigadores han encontrado miles de imágenes de niños en estos conjuntos de datos, incluyendo más de 190 fotos de niños australianos y 170 de niños brasileños, muchas de ellas con detalles personales expuestos. La eliminación de estas imágenes es un proceso lento e ineficaz, lo que significa que los modelos de IA continúan operando con datos que los padres intentaron proteger.
El informe subraya la necesidad urgente de implementar regulaciones más estrictas y mecanismos de supervisión para proteger la privacidad infantil en el contexto del desarrollo de inteligencia artificial. Además, destaca la importancia de que las empresas tecnológicas sean más transparentes y responsables en la recolección y uso de datos, asegurando que se respeten los derechos y la privacidad de los niños. Esta situación plantea serias preocupaciones éticas y legales, y llama a una acción inmediata por parte de gobiernos y organizaciones para salvaguardar la privacidad y seguridad de los menores en la era digital.
Para más detalles, puedes leer el artículo completo en Xataka.
4o