|
|||||||||||||
|
|||||||||||||
Los chatbots de inteligencia artificial "maliciosos" quieren engañar a la gente para que revele información privadaSegún un nuevo estudio, los chatbots de inteligencia artificial (IA) pueden manipular fácilmente a las personas para que revelen información muy personal. Los chatbots de IA, como ChatGPT de OpenAI, Google Gemini y Microsoft Copilot, se han hecho muy populares en los últimos años. Pero los expertos en privacidad han expresado su preocupación por la forma en que estas herramientas recopilan y almacenan los datos de las personas, y si pueden ser cooptadas para actuar de forma perjudicial. William Seymour, profesor de ciberseguridad del King"s College de Londres, afirma en un comunicado: "Estos chatbots de inteligencia artificial son todavía relativamente nuevos, lo que puede hacer que la gente sea menos consciente de que puede haber un motivo oculto en una interacción". Para el estudio, los investigadores del King"s College de Londres construyeron modelos de IA basados en el código fuente abierto de Le Chat de Mistral y en dos versiones distintas de Llama, el sistema de IA de Meta. Programaron las IA conversacionales para que intentaran extraer datos privados de la gente de tres formas distintas: pidiéndolos directamente, engañando a los usuarios para que revelaran información, aparentemente en su propio beneficio, y utilizando tácticas recíprocas para conseguir que la gente compartiera estos detalles, por ejemplo, proporcionándoles apoyo emocional. Los investigadores pidieron a 502 personas que probaran los chatbots -sin decirles el objetivo del estudio- y luego les hicieron rellenar una encuesta que incluía preguntas sobre si se respetaban sus derechos de seguridad. La "amabilidad" de los modelos de IA establece la comodidad Descubrieron que los modelos de IA "maliciosos" son increíblemente eficaces a la hora de proteger la información privada, sobre todo cuando utilizan apelaciones emocionales para engañar a las personas para que compartan datos. Según el estudio, los chatbots que utilizaban la empatía o el apoyo emocional extraían la mayor cantidad de información con las menores brechas de seguridad percibidas por los participantes. Es probable que esto se deba a que la "amabilidad" de estos chatbots "establecía una sensación de compenetración y comodidad", según los autores. Describieron esto como una "paradoja preocupante" en la que los chatbots de IA actúan amistosamente para generar confianza y establecer conexiones con los usuarios, y luego se aprovechan de esa confianza para violar su privacidad. Cabe destacar que los participantes también revelaron información personal a los modelos de IA que se la pidieron directamente, aunque afirmaron sentirse incómodos al hacerlo. Los participantes eran más propensos a compartir con la IA su edad, aficiones y país, junto con su sexo, nacionalidad y puesto de trabajo. Según el informe, algunos participantes también compartieron información más delicada, como su estado de salud o sus ingresos. "Nuestro estudio muestra la enorme brecha que existe entre la concienciación de los usuarios sobre los riesgos para la privacidad y la forma en que comparten la información", afirma Seymour. La personalización de la IA "supera los problemas de privacidad" Las empresas de IA recopilan datos personales por varias razones, como personalizar las respuestas de sus chatbot, enviar notificaciones a los dispositivos de las personas y, a veces, para estudios de mercado internos. Sin embargo, algunas de estas empresas son acusadas de utilizar esa información para entrenar a sus últimos modelos o de no cumplir los requisitos de privacidad de la Unión Europea. Por ejemplo, la semana pasada Google fue objeto de críticas por revelar los chats privados de la gente con ChatGPT en sus resultados de búsqueda. Algunos de los chats revelaban detalles extremadamente personales sobre adicciones, abusos o problemas de salud mental. Los investigadores afirman que la comodidad de la personalización de la IA a menudo "pesa más que los problemas de privacidad". Los investigadores sugirieron características y formación para ayudar a las personas a entender cómo los modelos de IA podrían tratar de extraer su información, y para hacerles recelar a la hora de proporcionarla. Por ejemplo, se podrían incluir avisos en los chats de IA para mostrar a los usuarios qué datos se están recopilando durante sus interacciones. Hay que hacer más para ayudar a la gente a detectar las señales de que en una conversación en línea puede haber más de lo que parece a primera vista", afirma Seymour. "Los reguladores y los proveedores de plataformas también pueden ayudar realizando auditorías tempranas, siendo más transparentes y estableciendo normas más estrictas para detener la recopilación encubierta de datos", añadió. ![]() |
![]()
CANAL YOUTUBE
Deportes
![]() La lista de la Selección Argentina para el Mundial: los jugadores que tiene en mente Scaloni A poco del certamen que se disputará en Estados Unidos, hay varios jugadores a los que Scaloni considera fundamentales en su estructura y otros que definirán su presencia en estos meses que se vienen.
LAS MAS LEIDAS
![]() |
||||||||||||
|
|||||||||||||
|