Una española terminó en la comisaría después de que ChatGPT alertara a la policía por sus búsquedas: “Se pensaba que estaba planeando un asesinato”

Una española terminó en la comisaría después de que ChatGPT alertara a la policía por sus búsquedas: “Se pensaba que estaba planeando un asesinato”

Una mujer española, identificada en la nota como Mabel, terminó en la comisaría. Según su relato, un sistema de inteligencia artificial alertó a la policía a partir de sus búsquedas. Asegura que el procedimiento se dio después de que se detectaran consultas consideradas por la herramienta como sospechosas. La creadora de contenido afirma que la policía confiscó su teléfono durante la revisión. El medio local que difundió la historia señaló que la versión corresponde a lo relatado por la protagonista y que no se confirmaron otros datos iniciales. La nota fue publicada en la sección Mundo de La Gaceta.

Entre las búsquedas mencionadas, Mabel señaló la frase 'Se pensaba que estaba planeando un asesinato'. Dijo que ese enunciado formó parte del historial que activó el algoritmo. Según su versión, eso llevó a que las autoridades revisaran sus dispositivos y detuvieran el proceso por un tiempo. El artículo no ofrece detalles sobre la ciudad, el país o la fecha del hecho. Tampoco se menciona la identidad de las autoridades involucradas ni si hubo cargos. Tampoco se verifica de forma independiente la versión presentada por la entrevistada.

Este episodio se inserta en un debate más amplio sobre el uso de herramientas de IA por parte de plataformas y autoridades. Expertos en seguridad cibernética advierten que los sistemas pueden detectar patrones que sugieren riesgo, pero señalan que existen límites, sesgos y riesgos de privacidad. Los responsables de la cobertura señalan que hay un riesgo de depender de algoritmos para acciones policiales sin verificación humana. La nota de La Gaceta se centra en la versión de Mabel y no ofrece corroboración adicional en el texto.

Este caso reabre cuestionamientos sobre cómo se manejan los datos personales cuando una IA participa en la toma de decisiones. Organismos de derechos digitales destacan la necesidad de salvaguardas para evitar abusos o errores. A la hora de informar sobre casos como este, el medio local subraya que se trata de una reconstrucción basada en el relato de una sola persona y que no hay confirmación independiente.

Fuente: lagaceta.com.ar | Leer la nota completa