CLOSED
S&PNASDAQDOWR2KVIXAAPLMSFTNVDAGOOGLMETAAMZNTSLAAVGOGOLDWTIUSDPEN
Yahoo · 60s · delay ~15min
LIVE
BTCETHSOLXRPADABNBDOGE
CoinGecko · 30s
El uso no autorizado de IA en empresas: una realidad en 2026
Papers

El uso no autorizado de IA en empresas: una realidad en 2026

MarkTechPost (AI/ML News)14 de mayo de 2026Cortesia de MarkTechPost (AI/ML News)

Segun MarkTechPost (AI/ML News), en 2026 el uso de inteligencia artificial en entidades empresariales ya no se limita a herramientas oficiales y supervisadas. Una parte significativa de los empleados —entre el 40 y el 65 por ciento— ya utiliza aplicaciones de IA sin autorización formal de su departamento de tecnología. Este fenómeno, conocido como "shadow AI", no es producto de intenciones maliciosas, sino de una necesidad práctica: acelerar tareas, resolver problemas en tiempo real y cumplir plazos. Los empleados, desde ingenieros hasta analistas, aplican estas herramientas sin esperar a que se establezcan políticas formales, porque en la práctica, el tiempo es más valioso que el cumplimiento documental.

Netskope, en su informe del 2026, destaca que el 47 por ciento de los usuarios de inteligencia generativa en entornos corporativos acceden a estas herramientas desde cuentas personales, sin intervención ni supervisión de la empresa. Esto implica que datos sensibles, como información de clientes, proyecciones financieras o procesos internos, son tratados sin los controles de seguridad que deberían aplicarse. Más de la mitad de estos empleados reconocen haber introducido información confidencial en herramientas no reguladas. Y lo más preocupante: menos del 20 por ciento de ellos perciben su conducta como inapropiada. En casos concretos, se utilizan plataformas como ChatGPT para corregir errores en código de semiconductores, se generan resúmenes de comités con datos financieros en herramientas como Claude, y se convierten transcripciones de reuniones en tareas concretas usando aplicaciones de consumo.

Este comportamiento, aunque impulsado por necesidades operativas, plantea riesgos reales. La falta de políticas coordinadas no solo vulnera la integridad de los datos, sino que también puede exponer a las organizaciones a brechas de seguridad y a consecuencias legales. Los programas de gobernanza de IA que se diseñan hoy se basan en un escenario que ya no existe: el de una implementación ordenada y controlada. En 2026, la realidad operativa está por delante de las normativas, lo que exige una reevaluación de cómo se gestionan estos sistemas dentro de las estructuras empresariales.

Para los profesionales del Perú, este panorama es especialmente relevante. La creciente adopción de tecnologías digitales en sectores como banca, manufactura y servicios públicos ha acelerado la necesidad de integrar IA en los procesos diarios. Sin embargo, muchas empresas aún no han desarrollado marcos claros para su uso. Esto puede llevar a que personal técnico, sin formación específica, utilice herramientas externas para resolver tareas clave. La clave para evitar riesgos no está en prohibir el acceso, sino en capacitar, supervisar y establecer políticas que equilibren eficiencia con seguridad. La gobernanza de IA debe evolucionar, no retroceder, para acompañar a los empleados en su trabajo diario, sin sacrificar el control de información sensible.