¿No es raro que luego de hablar con un amigo del color de unos tenis o el título de una película, de la nada empiecen a salirte noticias y anuncios de lo mismo?
A veces hay que empezar por lo incómodo: Orwell se equivocó. No en lo fundamental —sí, nos vigilan, sí, estamos jodidos— sino en los detalles. El tipo imaginó un Estado totalitario que te obligaba a tener una pantalla en la sala. Nunca se le ocurrió que nosotros mismos íbamos a comprar el cacharro, ponerlo en la mesa de noche, hablarle como si fuera nuestra mamá y pedirle que nos recuerde tomar agua. La distopía llegó, pero con cargador USB-C y opción de financiamiento sin intereses.
El Gran Hermano moderno no es un dictador con bigote. Es Google, Facebook, tu banco, el gobierno chino, el gobierno gringo, esa app que te dice cuántos pasos diste hoy y, probablemente, el refrigerador inteligente que alguien en Silicon Valley te quiere vender. Es una hidra dispersa, eficiente y, sobre todo, rentable. Porque resulta que vigilarnos es el mejor negocio del siglo XXI.
Hagamos el ejercicio. En 2024, el mundo generó 149 zettabytes de datos. Para 2025, serán 181. Un zettabyte es un trillón de gigabytes, que es una forma elegante de decir: una cantidad de información que el cerebro humano no está diseñado para procesar. Cada día enviamos 361 mil millones de correos electrónicos. Cada minuto, 16 millones de mensajes de texto. Y el 90% de todos los datos que existen en el planeta se crearon en los últimos dos años.
Shoshana Zuboff, que es la teórica que le puso nombre a esta pesadilla, lo llama «capitalismo de vigilancia». La premisa es brutal en su simpleza: tu vida es la materia prima. Todo lo que haces —dónde caminas, qué compras, a quién le das like, cuánto tiempo te quedas viendo un video de gatos— se convierte en datos. Esos datos se procesan con inteligencia artificial para predecir qué vas a hacer mañana. Y esa predicción se vende. No tus datos del pasado. Tu futuro.
Las empresas apuestan sobre tu vida en mercados que Zuboff llama «mercados de futuros conductuales». Suena a ciencia ficción corporativa, pero es el modelo de negocio más exitoso de la historia reciente.
Aquí viene la parte que te va a arruinar el scroll nocturno. Cada vez que abres una página web o una app, se desata una subasta. Se llama Real-Time Bidding, y básicamente es el mercado negro más grande del mundo operando a la luz del día, con términos y condiciones que nadie lee.
Funciona así: en el tiempo que tarda en cargar un banner publicitario —milisegundos—, cientos de empresas reciben tus datos personales. Ubicación GPS precisa, qué dispositivo usas, qué has estado navegando, inferencias sobre tus intereses políticos, sexuales, religiosos. Todo. Y con esa información, pujan para mostrarte un anuncio.
En Estados Unidos, esto pasa en promedio 747 veces al día por persona. En Europa, 376. Google solo comparte estos datos con 4,698 empresas diferentes. El Consejo Irlandés para las Libertades Civiles, que no se caracteriza por el alarmismo, lo describió sin rodeos: «La mayor violación de privacidad en la historia humana».
¿La parte más chistosa? Nadie te pidió permiso. Bueno, técnicamente sí: está en la página 47 de los términos y condiciones que aceptaste sin leer para usar esa app que edita fotos con filtros de perrito.
Y lo peor no es solo que te vendan. Es que estos datos fluyen sin control hacia actores estatales y adversarios geopolíticos. Hay reportes de que gobiernos extranjeros pueden adquirir, a través de estos canales comerciales legítimos, información sobre los movimientos de personal militar, jueces y líderes políticos. El espionaje ya no requiere James Bond. Requiere una tarjeta de crédito corporativa.
Hubo una vez una empresa que descubrió algo terrible: con solo 10 likes en Facebook podían conocerte mejor que un compañero de trabajo. Con 70, mejor que un amigo cercano. Con 300, mejor que tu pareja. Se llamaban Cambridge Analytica y usaron esa información como un arma.
La metodología era sencilla y aterradora. Utilizaron el modelo de personalidad OCEAN —Apertura, Responsabilidad, Extroversión, Amabilidad, Neuroticismo— para crear perfiles psicográficos de millones de votantes. Si eras neurótico, te bombardeaban con imágenes de amenazas, inseguridad, miedo. Si eras una persona tradicionalista y responsable, te llenaban de mensajes sobre orden, estructura, fronteras claras.
Christopher Wylie, el informante que destapó todo, contó cómo diseñaron narrativas políticas como «construir el muro» para activar algo profundo en personas que psicológicamente anhelaban límites definidos. No importaba si la política tenía sentido. Importaba activar el resorte emocional correcto.
La empresa colapsó después del escándalo. Pero la metodología no desapareció. Se perfeccionó. Ahora es solo «publicidad política moderna». Todos la usan. Nadie habla de ella.
Chennai, una ciudad en India, tiene 657 cámaras de vigilancia por kilómetro cuadrado. Londres, 399. Beijing, más de 1.15 millones en toda la capital. Pero el número no es lo más grave. Lo grave es que las cámaras ya no solo graban. Piensan.
Una cámara analógica documenta. Una cámara inteligente entiende. Te reconoce por la cara, por cómo caminas, por tu voz. En China, una empresa llamada Watrix desarrolló un software que te identifica por tu forma de andar. No necesitas mostrar el rostro. Cojear o encorvarte no engaña al sistema. El algoritmo analiza toda tu biomecánica, hasta 50 metros de distancia. Adiós al anonimato físico.
Y si pensabas que tus emociones eran tuyas, piénsalo de nuevo. Hay escuelas en China que usan cámaras para medir la atención de los estudiantes en clase. Proyectos como iBorderCtrl en Europa intentaron detectar mentiras leyendo microexpresiones faciales en las fronteras. Que toda esta tecnología sea pseudociencia —porque lo es— no ha impedido que se implemente. Basta con que parezca científica.
Robert Williams estaba en su casa en Detroit cuando recibió una llamada de la policía ordenándole entregarse. Pensó que era una broma. No lo era. Poco después, lo arrestaron frente a su esposa e hijas. Pasó 30 horas detenido.
El motivo: un algoritmo de reconocimiento facial lo identificó como el sospechoso de un robo de relojes de lujo. La foto de la cámara de seguridad era borrosa, el parecido dudoso, pero la policía confió en la máquina. Durante el interrogatorio, Williams vio la imagen del verdadero sospechoso y simplemente dijo lo obvio: «Ese no soy yo». La respuesta de los detectives fue aún más obvia: «La computadora dijo que eras tú».
Este caso, junto con los de Michael Oliver y Nijeer Parks —todos hombres afroamericanos— expone una falla sistémica: los algoritmos de reconocimiento facial tienen tasas de error significativamente más altas para personas de piel oscura. Pero departamentos de policía en todo Estados Unidos han usado estas «coincidencias» como causa probable única para arrestos, invirtiendo la carga de la prueba.
Williams quedó libre después de demostrar su inocencia. El algoritmo sigue trabajando.
En 2024 se registraron 296 apagones de internet en 54 países. Myanmar lideró con 85 incidentes. India le siguió con 84. Los gobiernos descubrieron algo obvio: si no quieres que la gente vea lo que haces, apaga el internet. Es más barato que tapar bocas y tiene el mismo efecto.
Myanmar lo usa para ocultar una guerra civil brutal. India, para controlar protestas y elecciones. Países del Medio Oriente lo hacen durante exámenes escolares nacionales para evitar trampas. La desproporción de la medida —paralizar la economía digital de millones para evitar que unos estudiantes se copien— es un síntoma de cómo los gobiernos ven el internet: no como un derecho, sino como un privilegio revocable.
Pero cuando el objetivo es más específico, entran los mercenarios digitales. Pegasus es un software israelí fabricado por NSO Group que convierte tu teléfono en el espía perfecto. Se instala sin que hagas clic en nada. Cero acción de tu parte, cero posibilidad de defensa.
México ha sido uno de los usuarios más prolíficos de Pegasus en el mundo. Carmen Aristegui, la periodista que destapó la Casa Blanca de Peña Nieto, fue infectada. También defensores de derechos humanos que investigan ejecuciones militares y activistas de salud pública. El gobierno de López Obrador prometió que eso se había acabado. Investigaciones recientes confirmaron que no. El ejército mexicano resultó ser el operador final, usando empresas fantasma para ocultar las compras.
Colombia tampoco se queda atrás. El Ejército Nacional creó «carpetas secretas» sobre más de 130 personas: periodistas estadounidenses como Nicholas Casey del New York Times, políticos de oposición, líderes sindicales. Todo con recursos públicos. Algunos de esos recursos venían de ayuda estadounidense. La tecnología amplifica el poder de los corruptos, y los corruptos no necesitan mucho para intimidar.
Hay un efecto psicológico de vivir vigilado que los académicos llaman «efecto desalentador». Es exactamente lo que suena: la gente se calla sola.
Estudios recientes en Zimbabue, Uganda y hasta en democracias occidentales confirman lo mismo. Las personas evitan unirse a grupos políticos de WhatsApp por miedo a ser perfiladas. Suavizan sus críticas. Evitan palabras clave sensibles. «Si te unes a un movimiento social, atraes atención y la gente se disocia de ti», relata un participante en un estudio sobre derechos humanos.
En redes sociales, esto se potencia con el shadowbanning: las plataformas reducen la visibilidad de tu contenido sin avisarte. Nunca sabes si nadie te lee porque no eres interesante o porque te censuraron algorítmicamente. Esa incertidumbre genera paranoia y lleva a la autocensura preventiva.
La victoria final del Gran Hermano no es encarcelar disidentes.Europa intenta poner límites (pero con asteriscos)En 2024, la Unión Europea aprobó la primera Ley de Inteligencia Artificial del mundo. Prohíbe el «social scoring» gubernamental, el reconocimiento de emociones en escuelas y lugares de trabajo, y el reconocimiento facial en tiempo real en espacios públicos.Las excepciones por terrorismo, búsqueda de víctimas y crímenes graves son tan amplias que podrían tragarse la regla completa. Además, la ley permite el reconocimiento biométrico «post-evento» —analizar grabaciones pasadas—, lo que mantiene intacta gran parte de la capacidad de vigilancia masiva.
Worldcoin, el proyecto de Sam Altman que ofrece criptomonedas a cambio de escanear tu iris, enfrentó una reacción feroz. España, Portugal, Kenia y Hong Kong ordenaron el cese de operaciones o allanaron sus oficinas. El argumento central: no puedes cambiar tus ojos como cambias una contraseña. Hay partes del cuerpo humano que no pueden mercantilizarse.La sociedad global está empezando a trazar líneas rojas. Pero son líneas delgadas, borrosas y constantemente renegociadas.
Orwell imaginó un Estado totalitario con telepantallas obligatorias. Nunca imaginó que nosotros mismos compraríamos los dispositivos, les hablaríamos, les contaríamos nuestros secretos y los llevaríamos a todos lados.Vivimos en un mundo de 181 zettabytes de memoria digital. Cada día, nuestros datos se comparten 747 veces con empresas que no conocemos. Algoritmos racistas encarcelan inocentes. Gobiernos apagan el internet para ocultar masacres. Mercenarios digitales infectan teléfonos de periodistas. Y la policía predictiva falla el 99% de las veces pero sigue funcionando.
La vigilancia moderna no es el monstruo de Orwell. Es peor, porque es invisible, descentralizada, rentable y, en su mayoría, voluntaria. Aceptamos los términos sin leer. Damos like sin pensar. Compartimos nuestra ubicación por conveniencia.
Pero la resistencia existe. Los litigios contra el reconocimiento facial, las regulaciones europeas, el rechazo a Worldcoin demuestran que no todo está perdido. La batalla del siglo XXI no será solo por la libertad de movimiento, sino por algo más intangible y urgente: la libertad cognitiva. El derecho a pensar sin ser perfilado. El derecho a una vida no registrada.
En un mundo donde todo se recuerda y nada se olvida, el derecho más preciado podría ser, paradójicamente, el derecho a ser nadie. A caminar por la calle sin que te reconozcan. A buscar algo en internet sin que te persiga para siempre. A equivocarte sin que un algoritmo lo use en tu contra.
El ojo digital nunca parpadea. Pero aún podemos decidir cuánto le mostramos.
