Según Yahoo Finance, un creciente número de habitantes de Estados Unidos busca orientación financiera mediante inteligencia artificial, sin embargo, este proceso implica compartir información personal de alto valor. Un estudio de TD Bank realizado en marzo de 2026 revela que el 55% de los estadounidenses afirma usar herramientas de inteligencia artificial para gestionar sus finanzas, una cifra que ha aumentado considerablemente desde el 10% registrado el año anterior. Este fenómeno se inscribe en una tendencia más amplia: los usuarios consultan IA sobre educación financiera, planes de ahorro, recomendaciones de mercados bursátiles y asesoramiento sobre jubilación. Aunque el profesor Andrew Lo, de la Universidad de MIT, ha señalado que los modelos de lenguaje como ChatGPT pueden compararse con "un ser humano sociopático" por su falta de empatía, la mayoría de los usuarios no percibe tal riesgo.
La preocupación principal no radica en el uso de la IA, sino en qué información se entrega para obtener consejos. Un informe de Cisco de 2024 indica que hasta el 29% de los usuarios ingresan datos sensibles, como números de cuentas bancarias, sin que este hecho sea claramente percibido como peligroso por parte de la mayoría. Incluso cuando los usuarios reconocen que sus datos podrían ser expuestos, la acción se mantiene. Esto abre una brecha crítica: los sistemas de IA pueden almacenar o utilizar información sensible durante el entrenamiento de sus algoritmos, lo que pone en riesgo la privacidad. Un análisis realizado por investigadores de Stanford en 2025 con seis grandes modelos de EE.UU.—Nova, Claude, Gemini, Meta AI, Copilot y ChatGPT—confirma que cualquier dato sensible proporcionado puede ser recolectado y empleado en el desarrollo de estos sistemas.
Este riesgo se vuelve tangible cuando se considera que delincuentes han encontrado métodos para extraer información personal de estas plataformas. Los datos obtenidos pueden ser utilizados para fraudes de identidad o robos de fondos. La falta de regulaciones claras y la ausencia de mecanismos de protección en la mayoría de los servicios de IA hacen que esta práctica sea particularmente vulnerable.
Para los peruanos, este escenario resalta la necesidad de educarse en el uso de tecnologías digitales. Aunque el acceso a herramientas de inteligencia artificial es creciente en el país, muchos aún no comprenden el alcance de los riesgos al compartir datos personales. Es clave que los ciudadanos analicen cada interacción, verifiquen la legitimidad de los servicios y eviten entregar información sensible sin una evaluación rigurosa. La confianza en las tecnologías debe ir acompañada de una conciencia crítica, especialmente cuando se trata de aspectos tan sensibles como finanzas personales.