Según Wharton Knowledge, un estudio reciente de los Laboratorios de Inteligencia Generativa de Wharton (GAIL) revela que asignar a una máquina de lenguaje un rol como "experto en ciencia" o "ingeniero" no incrementa de forma consistente la precisión de sus respuestas. El análisis evaluó casi 500 preguntas de nivel doctorado en ciencias, ingeniería y derecho, aplicadas a seis modelos de lenguaje grande. Los resultados indican que, aunque se diseñaron prompts que colocan al sistema como especialista en un campo específico, el rendimiento no se elevó significativamente. En muchos casos, incluso se observó una disminución en la calidad de las respuestas frente a una formulación básica sin personificación.
Los investigadores examinaron distintos enfoques de instrucción: desde modelos que actúan como profesionales altamente calificados hasta otros que simulan a niños o personas sin formación técnica. A pesar de la variación en el perfil asignado, el desempeño general de los sistemas permaneció estable. Esto sugiere que el poder de una IA no reside en cómo se le define su rol, sino en cómo se integra dentro de un proceso de trabajo estructurado. La investigación forma parte de una serie de cuatro estudios sobre "Ciencia del Prompting" del Mack Institute, liderada por Lennart Meincke, coautor del trabajo, quien señala que la creencia de que los "roles expertos" mejoran las respuestas es menos válida en la actualidad que al inicio del desarrollo de las inteligencias generativas.
Este hallazgo desafía una práctica común en el uso de chatbots, impulsada por empresas como OpenAI, Google y Anthropic, que recomiendan presentar a los sistemas como "profesores de matemáticas" o "asesores fiscales". También se observa en el caso de Meta, que desarrolló una versión de su fundador, Mark Zuckerberg, para interactuar con empleados. Si bien estas iniciativas parecen estratégicas, el estudio indica que el efecto esperado —mejorar la calidad de las respuestas— no se materializa. La capacidad de una IA para resolver problemas complejos depende más de su entorno de uso, de la claridad de las instrucciones y del contexto aplicado, que de su "perfil" o identidad ficticia.
Para los lectores peruanos, este hallazgo implica una revisión del enfoque común en el uso de herramientas digitales en el ámbito profesional. Muchos sectores —como contabilidad, gestión empresarial o consultoría— buscan integrar IA mediante prompts que simulan expertos en áreas específicas. Sin embargo, esta estrategia puede ser una distracción. En un entorno donde la precisión de decisiones económicas, financieras o administrativas es crítica, es más valioso enfocarse en cómo se formulan las preguntas y cómo se validan las respuestas, que en cómo se "diseña" a la máquina. La inversión en entrenar a los sistemas con datos reales, en lugar de solo definir "personas", puede ofrecer resultados más sostenibles y confiables en el día a día del negocio peruano.
