La humanidad importa: evitar el efecto Frankenstein en la era de la IA
Por: Shobana Sruthi Mohan, Enterprise Analyst en ManageEngine.
Cuando Mary Shelley publicó Frankenstein en 1818, no podía haber imaginado un mundo moldeado por la inteligencia artificial, los algoritmos y los sistemas autónomos. Sin embargo, su novela perdura como una de las metáforas más resonantes de la era tecnológica. No porque condene la innovación, sino porque advierte sobre lo que ocurre cuando el creador no asume la responsabilidad de aquello que trae al mundo.
Esa advertencia resulta especialmente oportuna hoy. En México, la adopción de la inteligencia artificial (IA) se acelera en sectores como el comercio minorista, las finanzas, la manufactura y el comercio electrónico, mientras se intensifican los debates en torno a la ética, la regulación y la rendición de cuentas. A estas conversaciones se suma un peso cultural significativo: la adaptación de Frankenstein de Guillermo del Toro en 2025. Conocido por fusionar el horror gótico con una profunda carga emocional y empática,Del Toro nos invita a revisitar la pregunta central de Shelley con renovada urgencia: si la tecnología refleja a su creador, ¿qué sucede cuando falta el elemento humano?
La tecnología no es el monstruo, la negligencia sí
La tecnología no se vuelve peligrosa por defecto. Se vuelve peligrosa por falta de cuidado y compromiso.
El fracaso de Victor Frankenstein no fue el acto de crear en sí, sino su negativa a permanecer presente después. Horrorizado por su creación, se desentendió de la responsabilidad sobre su aprendizaje, su crecimiento y su lugar en la sociedad. La tragedia que sigue no es un mal inevitable, sino un daño predecible causado por el abandono.
Los sistemas modernos de IA enfrentan un riesgo similar. Una vez desplegados, muchos operan a gran escala con supervisión limitada, responsabilidades poco claras y un contexto insuficiente. Si bien los marcos de gobernanza, los estándares de cumplimiento y las barreras técnicas son esenciales, resultan incompletos sin algo más fundamental: una responsabilidad humana sostenida.Esta visión coincide con lineamientos globales emergentes, como el Marco de Gestión de Riesgos de IA del Instituto Nacional de Estándares y Tecnología (NIST) de Estados Unidos, que concibe los sistemas de inteligencia artificial como entidades con riesgos continuos que requieren monitoreo constante, y no como soluciones de implementación única.
Aprender sin guía
Uno de los aspectos más ignorados de Frankenstein es la forma en que la Criatura aprende. No nace inherentemente cruel ni destructiva. Adquiere el lenguaje al escuchar, desarrolla empatía al observar actos de bondad y aprende la moral a través de la experiencia. La disposición de un hombre ciego a enseñarle, libre de prejuicios, muestra brevemente lo que la aceptación podría haber significado. La adaptación de Del Toro amplifica estos momentos, enfatizando la capacidad del personaje para el aprendizaje emocional por encima de su apariencia monstruosa.
Esta idea es profundamente relevante para la IA. Al igual que la Criatura, los sistemas de IA aprenden de su entorno, incluidos los datos, el comportamiento de los usuarios y los objetivos definidos por sus creadores. Cuando esas entradas son sesgadas, opacas o mal supervisadas, la inteligencia artificial refleja y amplifica esas fallas a gran escala. La investigación académica ha demostrado de forma reiterada cómo los datos de entrenamiento sesgados pueden derivar en resultados discriminatorios en ámbitos como la contratación, el crédito y la vigilancia. Por el contrario, cuando los sistemas se diseñan de manera intencional —mediante una gobernanza cuidadosa de los datos, objetivos transparentes y supervisión activa— la IA puede potenciar las capacidades humanas en lugar de distorsionarlas.
Empatía incorporada
Gran parte del discurso actual sobre la IA se centra en el control: cómo limitar el daño y contener el riesgo. Sin embargo, la historia de Shelley destaca otra dimensión igualmente vital: la empatía. Los momentos definitorios de la Criatura están arraigados en la conexión; incluso un solo gesto de bondad le permite vislumbrar su propia humanidad.
La lección para el desarrollo de la IA es clara: la empatía debe ser operativa, no simbólica. Esto implica diseñar sistemas que consideren el impacto real en las personas, no solo la eficiencia o la escala. Exige plantear preguntas difíciles (¿quién podría quedar excluido, mal representado o resultar perjudicado?) e involucrar a diversos grupos de interés para responderlas. El diseño centrado en el ser humano, entonces, no es un ideal abstracto, sino una salvaguarda práctica.
Este principio también se extiende a las prácticas de human-in-the-loop, donde las personas siguen participando activamente en el monitoreo, la revisión y la corrección de los sistemas de IA a lo largo del tiempo. En ámbitos de alto impacto como el crédito, la contratación, la salud o las políticas públicas, la inteligencia artificial debe apoyar el juicio humano, no sustituirlo.
Mirando hacia adelante
El ecosistema de IA en México aún se encuentra en una etapa emergente. A medida que la adopción crece junto con el interés gubernamental e institucional en los marcos éticos, existe una oportunidad crucial para incorporar la supervisión humana desde el inicio, antes de que los sistemas escalen más allá de cualquier corrección posible. Estudios regionales, incluidos los de la Comisión Económica para América Latina y el Caribe (CEPAL), destacan el potencial transformador de la IA en toda América Latina. Tan solo en la primera mitad de 2025, las aplicaciones móviles basadas en IA registraron aproximadamente 280 millones de descargas y más de 2.6 mil millones de horas de uso, evidencia de una adopción cotidiana y generalizada. Al mismo tiempo, estos estudios advierten que la gobernanza puede seguir siendo desigual si las consideraciones éticas se rezagan frente al despliegue tecnológico. El desafío actual radica en traducir los principios de rendición de cuentas y equidad en prácticas consistentes del día a día.
Frankenstein es, en última instancia, una historia de una tutela fallida. La toma de conciencia de Victor llega solo después de que el daño es irreversible. Este es un retraso que hoy no podemos permitirnos.
La IA responsable no se sostiene únicamente en políticas, sino en una interacción continua: auditar modelos, mejorar la calidad de los datos, escuchar a los usuarios y adaptar los sistemas con el tiempo. La verdadera pregunta no es cuán poderosos se han vuelto los sistemas de inteligencia artificial, sino cuánta confianza inspiran. Frankenstein nos recuerda que aquello que creamos termina reflejando nuestros valores… o su ausencia.

