Clarifai borra 3 millones de fotos de OkCupid y los modelos de IA entrenados con esos datos

Clarifai eliminó 3 millones de fotos de OkCupid, junto con datos demográficos y de localización, y también los modelos de IA entrenados con ese material, en un caso investigado por la FTC por uso de datos fuera de lo prometido a los usuarios.

22 de abril de 2026 a las 20:13h
Clarifai borra 3 millones de fotos de OkCupid y los modelos de IA entrenados con esos datos
Clarifai borra 3 millones de fotos de OkCupid y los modelos de IA entrenados con esos datos

Clarifai ha eliminado 3 millones de fotos procedentes de OkCupid y también los modelos de IA entrenados con esos datos, en un caso que vuelve a poner el foco en cómo pueden reutilizarse imágenes personales fuera del contexto en el que los usuarios las compartieron.

El caso afecta a fotos subidas a OkCupid, junto con datos demográficos y de localización, que habrían sido compartidos con Clarifai en 2014. La cuestión de fondo no es solo que una empresa de IA usara ese material para entrenar reconocimiento facial, sino que las políticas de privacidad de OkCupid indicaban que ese intercambio debería haber estado prohibido. Que Clarifai haya confirmado ahora la eliminación de los datos y de los modelos entrenados con ellos refuerza la idea de que ese acceso existió realmente.

Qué impacto real tiene para los usuarios

En la práctica, este episodio ilustra un problema muy concreto una foto subida a una app de citas para conocer gente puede terminar usándose para algo completamente distinto, como entrenar sistemas capaces de estimar edad, sexo o raza a partir del rostro. No es un fallo técnico visible para el usuario, sino un uso de datos personales fuera de las expectativas razonables de quien los compartió.

El uso de esas imágenes habría ocurrido hace 12 años, pero la relevancia sigue siendo actual. La FTC abrió su investigación en 2019 después de que saliera a la luz que Clarifai había usado imágenes de OkCupid para construir una herramienta de IA con esas capacidades de análisis facial. Después, la FTC y OkCupid, propiedad de Match Group, resolvieron la demanda el mes pasado. Ni OkCupid ni Match Group admitieron las acusaciones de haber engañado a los usuarios al violar sus propias políticas de privacidad.

La FTC también sostuvo que, desde 2014, Match Group y OkCupid ocultaron deliberadamente esta conducta e intentaron obstaculizar la investigación. Aun así, el margen de actuación del regulador tiene límites la propia FTC indicó que no puede multar a las empresas por este tipo de primera infracción. El resultado del acuerdo es otro OkCupid y Match quedan permanentemente prohibidas de tergiversar, o ayudar a otros a tergiversar, la naturaleza de su recopilación e intercambio de datos.

Qué se sabe de Clarifai y qué puede hacer el usuario

Uno de los elementos más reveladores del caso es el interés explícito por el valor de esos datos. En un correo de 2014, Matthew Zeiler, fundador y CEO de Clarifai, escribió a Maxwell Krohn, cofundador de OkCupid

"Estamos recopilando datos ahora y acabamos de darnos cuenta de que OKCupid debe tener una enorme cantidad de datos increíbles para esto" - Matthew Zeiler, fundador y CEO de Clarifai

Ese mensaje encaja con la investigación posterior y con la naturaleza de los datos compartidos fotos, demografía y localización. No hace falta entrar en detalles técnicos para entender por qué eso resulta sensible. Una imagen facial ya es un dato potente por sí sola; combinada con más información personal, adquiere todavía más valor para sistemas de clasificación y análisis.

Para el usuario común, este caso no implica una acción inmediata sobre Clarifai, pero sí deja una lección práctica sobre cualquier servicio que almacene fotos personales. Conviene revisar los ajustes de privacidad y, sobre todo, leer con atención qué dice la plataforma sobre el intercambio de datos con terceros. Si una app maneja imágenes, ubicación o datos demográficos, ese cruce merece especial cuidado. No elimina lo ocurrido aquí, pero sí ayuda a entender qué se cede realmente al usar determinados servicios.

Lo más importante no es solo que se hayan borrado 3 millones de fotos y los modelos derivados, sino lo que revela el episodio una imagen compartida en una app puede acabar alimentando sistemas de IA muy alejados del uso original que el usuario tenía en mente. Y cuando eso ocurre, la promesa de privacidad deja de ser un detalle legal para convertirse en algo que sí cambia, y mucho, el día a día digital.

Sobre el autor
Redacción
Ver biografía