La IA no decide por ti (aún): manual de emergencia
ser humano
Por Jorge Oseguera Gamba y Josué Bojorges
19/01/2026
Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.
Isaac Asimov
Mi hermano menor acaba de cumplir la mayoría de edad. Además de estar contento porque ahora sí puede entrar a lugares de “adultos”, sintió la responsabilidad, o presión, de ir a sacar su credencial de elector que lo acredita como un ciudadano con derechos… y obligaciones.
Más allá de los comentarios familiares del tipo “¿cómo saliste en la foto?”, “¿y esa firma tan fea?”, algo que me llamó la atención fue su respuesta cuando le dije en tono burlón:
—¡Ahora sí vas a poder votar!
—¿Para qué? Si ya nada es “real”; de seguro en unos años sólo nos van a gobernar los robots. ¿No has visto los videos de viejitos o gatos en TikTok que parecen reales?
Me sorprendió, primero porque yo mismo me he reído con los videos de los viejitos discutiendo asuntos cotidianos, o con los videos de los gatos y perros rapeando cosas ofensivas; luego, porque recordé el uso político que se le ha dado a ese tipo de videos (conocidos como deep fakes).
Uno de los más famosos, y por no decir de los que han dado más cringe (como dice mi hermano; yo le diría ñáñaras), fue el video en el que el presidente estadounidense Donald Trump le masajea y lame los pies al empresario Elon Musk mientras se lee un mensaje: Long live the real King (Larga vida al verdadero rey). Esta escena jamás pasó (no al menos en público) pero vaya que influyó en la percepción política del presidente: muchos usuarios de plataformas como Reddit reaccionaron con humor apuntando que dicho video ejemplificaba a la perfección el tipo de relación entre los personajes.
En cierta forma, mi hermano tiene razón: la realidad que muestra este tipo de contenidos está en duda constante (al final se trata de personajes estereotipados llevando a cabo acciones poco comunes en escenarios alucinantes). Ése es uno de los peligros más preocupantes del uso de la Inteligencia Artificial (IA), ya que en circunstancias de toma de decisión democráticas podemos caer rápidamente en información tendenciosa o falsa, modificando nuestra capacidad para participar de manera libre y objetiva.
Es por ello, y porque tenía que tratar de convencer a mi hermano de que no todo está perdido y que no nos gobernarán los robots, que me di a la tarea de pensar en alguna guía para usar la IA en contextos de información política.
Democracia y máquinas ¿inteligentes?
Ya entrados en el tema, me pareció importante preguntarle a mi hermano, nuevo ciudadano con poder para emitir un voto:
—A todo esto, ¿qué entiendes por democracia?
—Es como cuando todos nos ponemos de acuerdo para elegir algo, por ejemplo, en la escuela, para no entrar a una clase que no nos gusta —me dijo seguro, y confeso de sí mismo. Y sí, para algunos expertos la democracia la podemos describir como un modo grupal en el que se busca que todos los participantes seamos igual de importantes en la toma de decisiones conjuntas e inclusivas [1].
Si bien el concepto de democracia siempre ha estado abierto a muchos tipos de interpretaciones (sociales, históricas y políticas), podemos enumerar algunas características que nos permitan saber si estamos ejerciéndola, por ejemplo: 1) garantizando la participación efectiva, en la que todos los participantes tengan las mismas oportunidades para dar a conocer sus opiniones y puntos de vista; 2) garantizando la igualdad de voto, es decir, que todos podamos contar con la misma oportunidad de votar y que el voto valga lo mismo; c) comprender lo votado, esto es, que podamos entender las posibles consecuencias de nuestro voto [2].
—¡Ah! Es como cuando mis compañeros y yo votamos por ir a comer pizza o ir a los tacos —me dijo mi hermano mientras guardaba su nueva credencial en su cartera vacía.
—Sí, pero tampoco es tan sencillo ponerse de acuerdo.
Y es que en teoría todo lo anterior debería de ser aplicable, pero, a la hora de la hora, llevarlo a cabo resulta muy complicado, ya que votar por algo o alguien no está libre de desacuerdos, prácticas deshonestas, irresponsabilidades o manipulaciones; de hecho, hay diversas posturas teóricas que enfatizan características negativas de la democracia, como la carencia de preparación que tenemos la mayoría para tomar decisiones en temas específicos o que cuando estamos en colectivo podemos carecer de sentido de responsabilidad social, siendo apáticos, haciendo juicios incorrectos o prefiriendo el chismorroteo y la información falsa [1].
Para empeorar el panorama, algunas de estas características negativas del ejercicio democrático pueden salirse de control con el uso de tecnologías como la IA.
Es importante decir que no existe una definición consensuada de lo que es la IA, pero, al igual que se lo pude explicar a mi hermano, se puede entender como el diseño computacional de capacidades “inteligentes” basadas en técnicas de procesamiento de información [3]. Es decir, sí: máquinas que de alguna forma las percibimos como inteligentes, ya que tienen la capacidad de tratar y modificar datos masivos y dar respuestas propias (aunque aún hay un gran debate entre filósofos, psicólogos y computólogos sobre eso de ser inteligente y si realmente están tomando decisiones por sí mismas).
Paralelo al termino IA existen otros que muchas veces nos confunden y que parecieran estar envueltos en una cortina de misterio, sin embargo, no son más que conceptos asociados a la misma idea de una máquina “inteligente”; por ejemplo, los términos Inteligencia Artificial Generativa (GAI por Generative Artificial Intelligence) o Inteligencia Artificial General (AGI por Artificial General Intelligence). La GAI es el campo que se enfoca en el desarrollo de sistemas que son capaces de crear nuevos contenidos (de texto, audio-visual o código de programación) “aprendidos” vía un gran conjunto de datos poblacionales y que se basan en la identificación de regularidades sin reglas específicas preprogramadas, lo que se conoce como aprendizaje automático o machine learning [4]. El segundo es un supuesto (aún) en el que una máquina podría desarrollar la capacidad para comprender, reaprender y aplicar dicho conocimiento en diversas tareas, sin necesidad de ser programada para una específica [5].
A estas alturas de la vida no se puede negar la influencia de la IA en el mundo actual, desde los dispositivos que utilizamos en el día a día (ya hay hasta lavadoras potencializadas con IA que saben qué tipo de lavado conviene a la ropa), los medios de comunicación y entretenimiento (plataformas como X, Facebook, YouTube, TikTok o Instagram) hasta los diversos procedimientos de análisis y resolución de problemas en áreas como la medicina, la seguridad, la educación y la ciencia.
Pero el uso de una herramienta tan poderosa parece tener diversos costos, entre ellos sus posibles repercusiones (como la modificación de nuestros hábitos de consumo, solo por mencionar una) o la responsabilidad moral y ética del tipo de preguntas que hacemos en plataformas como ChatGPT. Por ejemplo, ya no es un secreto que el denominado capitalismo de vigilancia, en el que se basa gran parte del análisis y el comportamiento de las redes sociales, permite a las empresas tecnológicas recopilar, utilizar, analizar y vender nuestros datos personales con el fin de generar patrones de consumo que influyan en nuestras decisiones [6]. Así que es muy probable que detrás de nuestras compras en plataformas como Shein, Temu, Mercado Libre, Amazon, etcétera, exista todo un mecanismo algorítmico para inducir nuestras preferencias basándose en los sitios que visitamos regularmente, los likes que damos o los lugares que visitamos físicamente [6-8].
Los patrones de consumo, además, son utilizados para generar un engagement o involucramiento emocional, con el objetivo de tratar de modificar nuestros intereses, gustos, tendencias, estilos de vida hasta valores morales, en un contexto económico que busca que gastemos a toda costa [6, 7]. Así que la próxima vez que te sientas consternado por algo que viste en las redes sociales considera que es muy probable que la máquina haya sido entrenada, con tus mismos datos, para afectar tus emociones y sentimientos. Ya sé que suena a capítulo de la serie Black Mirror, pero es algo que está pasando justo en este momento.
Volviendo a la cuestión de la democracia, el capitalismo de vigilancia ha llevado más lejos las características negativas de la democracia, a veces distorsionando la idea que tenemos sobre algún candidato, partidos políticos o propuestas de gobierno; muchas veces estas ideas se comportan como virus que entran a nuestra mente sin darnos cuenta, a través de cosas tan sencillas como la información repetida que nos sale en el feed de las redes sociales. En ese sentido, es importante preguntarnos por qué pensamos lo que pensamos de un candidato o un presidente, y de dónde viene la imagen que tenemos de él.
Dos ejemplos de lo anterior, que han servido para “infectar” nuestra percepción social sobre distintas figuras políticas, han sido las fake news y las deepfakes.
Las fake news o noticias falsas no son novedosas; en la historia de la humanidad, diversos grupos o personas han difundido versiones falsas de los hechos para obtener algún tipo de beneficio; sin embargo, la tecnología ha llevado su uso a otro nivel de expansión y difusión [9-11]. En la actualidad, una noticia falsa es un tipo de información fabricada que imita la de los medios noticiosos tradicionales, pero no tiene sus respaldos organizacionales, normas editoriales y, lo más importante, la intención de ser objetiva. Las noticias falsas son especialmente dañinas porque van en contra de la credibilidad de alguien o de algo sin buscar un punto medio [9], por ejemplo, cuando alguien “funa” a una persona en redes sociales sólo por los chismes que escuchó de otra persona que escuchó de otra persona… o como cuando a un gobernante se le acusa o señala de algo sin tener pruebas contundentes, o cuando dijeron que Donald Trump tenía una enfermedad mortal.
Por si fuera poco, hay datos científicos que sugieren que las noticias falsas nos afectan a todos, aumentando la apatía y la polarización de nuestras propias creencias, cerrándonos al diálogo con otras personas [9]. También se ha reportado que el creer una noticia falsa puede depender de lo que provoca en nosotros; esto quiere decir que, si una persona tiene una tendencia de apertura mental, reflexiva y analítica, es menos susceptible a creer en noticias falsas, en cambio, personas que tienen altos grados de excitación emocional al leerlas son más propensos a creer en noticias ficticias futuras [11].
Respecto a las deepfakes, como el ejemplo de Trump y Musk del inicio, han sido descritas como falsificaciones digitales realistas de contenido audiovisual en el que se usan a personas diciendo o haciendo cosas que realmente nunca dijeron o hicieron. Es importante añadir que estas deepfakes regularmente se hacen sin el consentimiento de los involucrados, por lo que en muchas partes del mundo ya se está clasificando como un delito, que, entre otras cosas se considera como robo de identidad [12-14].
Las deepfakes también distorsionan los procesos políticos y son usadas sistemáticamente para manipular elecciones o para dañar la confianza en candidatos o instituciones políticas. A lo anterior se suma que este tipo de contenido nos puede producir ciertos daños en nuestra salud mental asociados principalmente al grado de estrés por la sobrecarga mental de discriminar lo que es real de lo que no, impactando en nuestra atención y memoria necesarias para tomar decisiones democráticas informadas [12].
Pese a que todo el panorama nos podría parecer desolador, también se están desarrollando formas de neutralización de fake news y deepfakes mediante el uso de otras IA que detectan contenido falso o sospechoso, lo cual es muy interesante ya que de alguna forma es como una guerra entre máquinas, o un modo de combatir “fuego contra fuego” [15-19].
Ahora sí, el manual de emergencia
Con toda la información anterior, mi hermano estaba convencido, no sólo de que pronto nos gobernarían los robots, además, que iniciarían una guerra entre ellos para gobernarnos. Sentí decirle que estaba en un error, y que nosotros los humanos tenemos el poder del usuario para contener y revertir los efectos negativos de las fake news o deepfakes.
Pese a que actualmente existe una tendencia popular a hablar sobre los impactos de la IA no hay un consenso sobre sus efectos ni sobre qué tipo de acciones debemos tomar para maximizar sus beneficios, lo cual también incluye su influencia en el ejercicio democrático. Lo que es peor, hay muchas ideas erróneas, prejuicios y suposiciones sobre ella, como que las máquinas nos van a gobernar o suplantar. Sin embargo, el escenario tecnológico actual representa una gran oportunidad para hacernos responsables de nuestras herramientas y sus consecuencias.
Se ha enfatizado mucho en la importancia de una educación digital que debe enfocarse en tener una educación básica sobre el funcionamiento de la IA y su impacto en nuestras vidas [13, 20]. A lo anterior podríamos sumar las diversas directrices éticas sobre su uso, que, pese a que no abordan directamente el fenómeno democrático, sí dan algunas recomendaciones importantes como: a) la transparencia y explicación del uso de nuestros datos personales, b) el control sobre la discriminación hacia grupos vulnerables o minorías, d) la constante supervisión humana sobre el diseño algorítmico y e) la sostenibilidad en términos de recursos medioambientales asociados al uso y soporte técnicos.
Entre las diversas directrices éticas que afrontan un primer paso hacia la legislación de la IA se encuentran la Initial Policy Considerations For Generative Artificial Intelligence de la Organización para la Cooperación y el Desarrollo Económico (OECD), las Directrices Éticas Para Una IA Fiable de la Comisión Europea, la Recommendation On The Ethics Of Artificial Intelligence de la UNESCO o el Blueprint For An AI bill of Rights de la Casa Blanca, por mencionar algunas (en el marco de las diversas investigaciones y directrices éticas propuestas a nivel mundial por los efectos cognitivos y conductuales de la IA desde el Laboratorio de Bienestar y Cognición Política del Centro de Investigación en Ciencias Cognitivas de la UAEM proponemos este manual de emergencia que puede servir al joven lector como una guía sistemática y concisa de cómo sacarle provecho al uso de IA en contextos de información política).
Por todo lo anterior, le presento a las y los lectores esta breve propuesta de manual de usuario democrático que espero sirva, más allá de mi hermano y sus ideas apocalípticas con robots gobernantes, a cualquier usuario de las redes sociales o plataformas digitales basadas en IA.
- La Inteligencia Artificial no es inherentemente buena ni mala. Evitemos caer en la satanización de esta tecnología, adoptar una postura equilibrada y crítica nos permitirá aprovechar sus beneficios políticos sin estigmatizar su uso.
- Dirijamos la atención con intención. Recordemos que la IA compite por captar nuestra atención. Es su recurso más valioso. Seamos más conscientes del tiempo y contenido político que nos ofrecen las plataformas digitales.
- Cuestionemos todo en todo momento. Cada vez que interactuamos con un dispositivo inteligente que nos ofrezca información sobre un candidato o evento político, es importante preguntarnos: ¿Por qué estoy viendo esto? ¿Cómo llegué aquí? ¿Cuál es el mensaje principal? ¿Busca influir en mi percepción política sobre una persona o idea? ¿Qué se ganaría o perdería con que yo vea esto?
- Verifiquemos la fuente de la información. Antes de dar por cierta una información, cuestionemos si esta proviene de una fuente confiable o si pudo haber sido alterada por terceros. Ante las dudas se vale:
- Consultar otras fuentes en metabuscadores como Google.
- Verificar la autenticidad de imágenes y videos con herramientas como Google Lens.
- Preguntar a un chatbot diferente para contrastar versiones (no todo es ChatGPT, está DeepSeek, Gemini, Bing, entre muchos otros, Perplexity, por ejemplo, es más transparente con las fuentes que usa y se puede seleccionar un modo en el que sus fuentes sean solo artículos académicos).
- Pensemos en la intención de la información.
- ¿La plataforma, página o medio de comunicación está esperando que tome algún tipo de postura?
- Si es así ¿Qué tipo de respuesta y cuál sería la implicación social de mi postura?
Los puntos anteriores son solo una primera sugerencia para tomar un papel activo y responsable de la información que puede influir en nuestra percepción política y elecciones democráticas.
Sé que no convencí del todo a mi hermano de que los robots no nos gobernarán en el futuro, pero al menos pude ver cómo reflexionaba su nuevo papel de ciudadano con voz y voto al leer el manual de emergencia. Después se conectó a Roblox (un universo virtual donde puedes crear y participar en videojuegos creados por otros usuarios) con sus amigos mientras trataban de coordinarse “democráticamente” para pasar una misión. No todo está perdido.
Referencias
[1] Christiano, T. (2012). Democracy. En McKinnon, C. (Ed.), Issues in political theory (pp. 80-102). Oxford University Press, USA.
[2] Dahl, R. A. (2020). On democracy. Yale university press.
[3] Montemayor, C. (2023). The prospect of a humanitarian artificial intelligence: agency and value alignment (p. 296). Bloomsbury Academic.
[4] Dot CSV. (2025). ¿La IA generativa plagia a los artistas? (Explicación técnica) [Video]. YouTube. https://www.youtube.com/watch?v=ibue3mFBh5c
[5] Dot CSV. (2025, febrero 21). ¿Qué es la AGI? ¿Cuándo llegará la inteligencia artificial general? [Video]. YouTube. https://www.youtube.com/watch?v=p_S6NIEfu-U
[6] Zuboff, S. (2023). The age of surveillance capitalism. In Social theory re-wired (pp. 203-213). Routledge.
[7] Simon, H. A. (1996). Designing organizations for an information-rich world. International Library of Critical Writings in Economics, 70, 187-202.
[8] Center for Humane Technology. (2023, 9 de marzo). The A.I. Dilemma [Video]. YouTube. https://www.youtube.com/watch?v=xoVJKj8lcNQ
[9] Lazer, D. M., Baum, M. A., Benkler, Y., Berinsky, A. J., Greenhill, K. M., Menczer, F., … & Zittrain, J. L. (2018). The science of fake news. Science, 359(6380), 1094-1096.
[10] Nazar, S., & Bustam, M. R. (2020, July). Artificial intelligence and new level of fake news. In IOP conference series: materials science and engineering (Vol. 879, No. 1, p. 012006). IOP Publishing.
[11] Bryanov, K., & Vziatysheva, V. (2021). Determinants of individuals’ belief in fake news: A scoping review determinants of belief in fake news. PLoS one, 16(6), e0253717.
[12] Chesney, B., & Citron, D. (2019). Deep fakes: A looming challenge for privacy, democracy, and national security. Calif. L. Rev., 107, 1753.
[13] Taha, M. A., Khudhair, W. M., Khudhur, A. M., Mahmood, O. A., Hammadi, Y. I., Al-husseinawi, R. S. A., & Aziz, A. (2022, December). Emerging threat of deep fake: How to identify and prevent it. In Proceedings of the 6th International Conference on Future Networks & Distributed Systems (pp. 645-651).
[14] Silbey, J., & Hartzog, W. (2018). The upside of deep fakes. Md. L. Rev., 78, 960.
[15] Devarajan, G. G., Nagarajan, S. M., Amanullah, S. I., Mary, S. S. A., & Bashir, A. K. (2023). AI-assisted deep NLP-based approach for prediction of fake news from social media users. IEEE Transactions on Computational Social Systems.
[16] Mirsky, Y., & Lee, W. (2021). The creation and detection of deepfakes: A survey. ACM computing surveys (CSUR), 54(1), 1-41.
[17] Mridha, M. F., Keya, A. J., Hamid, M. A., Monowar, M. M., & Rahman, M. S. (2021). A comprehensive review on fake news detection with deep learning. IEEE access, 9, 156151-156170.
[18] Narang, P., & Sharma, U. (2021, November). A study on artificial intelligence techniques for fake news detection. In 2021 International Conference on Technological Advancements and Innovations (ICTAI) (pp. 482-487). IEEE.
[19] Heidari, A., Jafari Navimipour, N., Dag, H., & Unal, M. (2024). Deepfake detection using deep learning methods: A systematic and comprehensive review. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, 14(2), e1520.
[20] Coeckelbergh, M. (2022). Democracy, epistemic agency, and AI: political epistemology in times of artificial intelligence. AI and Ethics, 1-10.
Algunos ejemplos de deep fakes difundidos en la red.
Deepfakes de viejitos:
https://vt.tiktok.com/ZSADm7guB/
Deepfakes de gatos y perros:
https://vt.tiktok.com/ZSADmWh5h/
Deepfake de Donald Trump-Elon Musk
https://vt.tiktok.com/ZSADmQ3NX/
Vórtice, enero-mayo 2021 es una publicación trimestral digital editada por la Universidad Autónoma del Estado de Morelos (UAEM), a través de la Dirección de Publicaciones y Divulgación, Edificio 59 (Facultad de Artes), Campus Norte. Av. Universidad 1001, Col. Chamilpa, CP 62209, Cuernavaca, Morelos, México. Teléfono +52 777 329 7000, ext. 3815. Correo: revistavortice@uaem.mx. Editora responsable: Jade Gutiérrez Hardt. Reserva de Derechos al Uso Exclusivo No. 04-2014-070112203700-203, ISSN 2395-8871, ambos otorgados por el Instituto Nacional del Derecho de Autor.
Responsable de la última actualización de este número: Roberto Abad, Av. Universidad 1001, Col. Chamilpa, CP 62209.
Vórtice está incluida en el Índice de Revistas Mexicanas de Divulgación Científica y Tecnológica del Consejo Nacional de Ciencia y Tecnología (Conacyt). Publica artículos de divulgación relacionados con las ciencias y las humanidades, y textos breves que transmitan el gusto por el conocimiento científico. El contenido de los artículos es responsabilidad de cada autor. Esta revista proporciona acceso abierto inmediato a su contenido, con base en el principio de ofrecer al público un acceso libre a las investigaciones para contribuir a un mayor intercambio global de conocimientos. Se distribuye bajo una licencia Creative Commons Reconocimiento-NoComercial 4.0 Internacional License.



