El nuevo generador de imágenes con inteligencia artificial (IA) de la compañía Meta, Imagine, está potenciado por millones de fotos publicadas en Facebook e Instagram, según informó el presidente de asuntos globales de Meta, Nick Clegg, y consignó el sitio web ExtremeTech.
En ese sentido, las producciones de Imagine son en buena parte provenientes de millones de fotos de usuarios que no habrían dado autorización para esto.
Para algunos, el hecho de que estas imágenes alguna vez hayan sido accesibles públicamente es un permiso suficiente. En la conferencia Connect de setiembre de Meta, Clegg mencionó que Imagine se creó a partir de publicaciones públicas de Facebook e Instagram, no de aquellas que se compartieron expresamente solo con amigos y familiares. Dicho esto, sólo la “gran mayoría” de los datos de entrenamiento de Imagine eran de acceso público.
En su resumen de IA de 2023 del miércoles, Meta señaló que está comprometido a “construir de manera responsable teniendo en cuenta la seguridad” en todos sus productos. Como resultado, agregará marcas de agua invisibles (algo que probablemente debería haber implementado desde el principio) a los resultados de Imagine en las próximas semanas. Las marcas de agua invisibles son relativamente fáciles de eliminar, según un estudio reciente, por lo que no está claro exactamente qué tan útil será esto; aun así, es un paso en la dirección correcta.
Según informa ExtremeTech, Meta también “continúa invirtiendo en equipos rojos”, o la práctica de probar la IA generativa con presión para ver si producirá resultados dañinos.