AI de la meta: los usuarios descubren que las conversaciones privadas son públicas en la aplicación de la aplicación


La aplicación Meta allí Se ha convertido en un campo de privacidad digital. Desde su lanzamiento en abril de 2025, la plataforma de inteligencia artificial de objetivos ha mostrado las conversaciones personales de los usuarios en un Feed público llamado «Discover»revelando información confidencial que varía desde problemas médicos hasta problemas judiciales pendientes.
La funcionalidad permite a cualquiera navegar a otros usuarios con ChatBot, creando un tipo de red social basada en la red social. El problema surge cuando las personas comparten detalles íntimos sin darse cuenta de que sus mensajes se volverán públicos.
Datos confidenciales expuestos públicamente
La información que se encuentra en el feed público incluye conversaciones sobre asuntos altamente personales. Los usuarios han compartido problemas médicos detallados, incluidos problemas intestinales, erupciones e información de cirugía. Otros revelan direcciones residenciales, números de teléfono y detalles sobre demandas.
Un ejemplo particularmente preocupante involucra a una persona que solicita ayuda para escribir una carta a un juez sobre custodiaincluyendo información personal completa. Otro usuario de 66 años preguntó sobre países donde «a las mujeres más jóvenes les gustan los hombres blancos mayores», proporcionando su ubicación y planes de cambio.
La situación se vuelve aún más delicada con Generaciones de Imagensi grabaciones de audio. La aplicación permite conversaciones de voz, y algunas de estas grabaciones aparecen en la feed pública. Los expertos identificaron audios que parecen haberse activado accidentalmente, capturando conversaciones particulares entre las personas.


Cómo funciona compartir
Según Daniel Roberts, portavoz de la meta, Las conversaciones no son públicas de forma predeterminada. Los usuarios deben pasar por un proceso de múltiples pasos para compartir sus interacciones, incluido hacer clic en «compartir» y luego «publicar».
La gente realmente no entiende que nada de lo que pones en una IA es confidencial. Ninguno de nosotros realmente sabe cómo se está utilizando toda esta información. Lo único que sabemos con certeza es que no es solo entre usted y la aplicación.
Calli SchroederConsultor senior en el Centro de Información de Privacidad Electrónica
La compañía enfatiza en una declaración oficial que «no se comparte nada en su feed a menos que elija publicar». Sin embargo, la realidad observada sugiere que muchos usuarios puede estar compartiendo involuntariamente.
Los usuarios desconocen la exposición pública
Una investigación realizada por la periodista Katie Notopoulos reveló la ignorancia de los usuarios sobre la naturaleza pública de sus conversaciones. Se puso en contacto con más de 20 personas cuyas conversaciones aparecieron en el feed público, pero Solo uno respondióConfirmando que no tenía intención de hacer de su conversación un público.


El caso involucró una solicitud de asesoramiento para la reparación del automóvil, lo que demuestra cómo las conversaciones aparentemente inofensivas pueden exponerse sin darse cuenta. La situación empeora cuando se considera que Los reales perfiles de Instagram y Facebook Los usuarios están vinculados a sus publicaciones en el objetivo de AI.
Otra evidencia de intercambio accidental incluye grabaciones de audio donde las personas aparecen hablando entre sí, con AI respondiendo automáticamente. Esto sugiere que el botón de grabación se activó sin los usuarios.
Impacto en la privacidad digital
La experta en seguridad Rachel Tobac identificó información pública sobre la alimentación Crímenes cometidos, interés en las relaciones extramatrimoniales, fotos de niños y planes de viajes privados. Ella advierte que existe una desconexión entre las expectativas de los usuarios sobre cómo funciona la herramienta y su realidad operativa.
El problema se intensifica porque muchos usuarios tratan la IA como un asistente personal y privado, similar a otras plataformas de chatbot que no tienen recursos sociales. La diferencia fundamental del objetivo hay precisamente en este dimensión social inesperada.
Los números de adopción aún bajos
Los datos de AppFigues, una compañía de inteligencia de aplicaciones, muestran que el objetivo allí solo se descargó 6.5 millones de veces Desde su lanzamiento el 29 de abril. El número puede parecer impresionante para las aplicaciones independientes, pero representa un resultado modesto considerando los miles de millones de dólares invertidos por el objetivo en la tecnología de inteligencia artificial.
La baja participación puede estar relacionada con las preocupaciones de privacidad que surgieron poco después del lanzamiento. Los críticos han señalado posibles problemas de privacidad desde el principio, con algunos vehículos que clasifican la plataforma como «un desastre de privacidad con la esperanza de suceder».


Contexto en el meta ecosistema
El objetivo de AI es parte de la estrategia más amplia de Mark Zuckerberg para la inteligencia artificial. El CEO anunció recientemente que la meta asistente de AI DA 1 mil millones de usuarios en todas las plataformas de la compañía.
Además, ahora está la confirmación de la creación de un nuevo laboratorio IA dirigido por Alexandr Wang, co -fundador de escala IA, dedicado a la construcción de superinteligencia.
El contraste entre estas inversiones masivas y los problemas prácticos de la aplicación independiente plantea preguntas sobre la implementación de la estrategia de IA de la Compañía. Si bien el objetivo busca posicionar su tecnología como el futuro de la interacción digital, La verdadera experiencia de los usuarios Ha estado marcado por confusión y exposición no intencional.
Reacción técnica comunitaria
La situación ha generado preocupación entre los especialistas en privacidad y seguridad digital. El problema no solo se limita a la exposición de información personal, sino también a Falta de transparencia sobre cómo los datos son procesados y utilizados por la plataforma.
Algunos usuarios más experimentados han comenzado a troll el sistema publicando intencionalmente contenido provocativo o irrelevante, lo que puede indicar una pérdida de confianza en la gravedad de la plataforma. La tendencia puede acelerar el deterioro de la calidad del contenido en la alimentación pública.
Lea también:
¿Qué pasará ahora?
El objetivo aún no ha respondido a las preguntas sobre qué medidas de protección existen para evitar compartir información personal identificable en la plataforma Meta AI. La compañía tampoco hizo comentarios sobre posibles ajustes de interfaz para aclarar la naturaleza pública de compartir. Es decir, hasta ahora la vida que sigue.
Pero el caso del objetivo allí sirve como ejemplo de los desafíos que enfrentan las grandes compañías de tecnología a Integre los recursos sociales en las herramientas de IA. La experiencia demuestra cómo la falta de claridad sobre la privacidad puede convertir una herramienta útil en una fuente no intencional de exposición a sus usuarios.
Fuente: TechCrunch, Business Insider y Wired
