En 2026, varios gobiernos aceleran restricciones a redes sociales e inteligencia artificial por adicción, desinformación y sesgos. Las respuestas van desde limitar el acceso de menores y exigir verificación de edad hasta imponer obligaciones frente a contenidos ilegales. Pero el choque con las plataformas no se reduce a “censura” o “libertad”: el centro del poder está en los algoritmos que deciden qué se recomienda, qué se vuelve viral y quién responde cuando hay daño. Este artículo recorre las restricciones de 2026, analiza cuestionamientos clave y explora quién controla la maquinaria que moldea la opinión pública.
Por: Juan Sebastián Lozano
Pedro Sánchez, el presidente de España, anunció en la Cumbre Mundial de Gobiernos en Dubái duras medidas contra las redes sociales y plataformas digitales. Entre ellas, planteó restringir el acceso a redes sociales a menores de 16 años y endurecer obligaciones de estas empresas frente a contenidos ilegales. Con aire quijotesco, se lanza a una pelea desigual: política y derecho contra plataformas que dominan la atención y la conversación pública. ¿Son Elon Musk y otros tecnomillonarios molinos de viento o gigantes sin escrúpulos?
Dice el primer mandatario español: “Las redes sociales se han convertido en un Estado fallido: un lugar donde se ignoran las leyes y se tolera la delincuencia; donde la desinformación vale más que la verdad y la mitad de los usuarios están expuestos a discursos de odio”. Para él, el entorno online es un “salvaje oeste” digital y anunció que su gobierno buscará aplicar responsabilidades penales a los CEOs pillos, cowboys digitales –o más bien terratenientes de la nube— que se roban todo el día nuestra atención a través de X, Facebook, Instagram, TikTok, etc., cuando no eliminen contenidos ilegales o mensajes que inciten al odio. Para él: “la desinformación no aparece por sí sola. La crean, la promueven y la difunden determinados actores”.
El Gobierno de España prohibirá el acceso a las redes sociales a menores de 16 años. Para hacerlo efectivo, estas empresas deberán implementar sistemas de verificación de edad más estrictos que los actuales. Las medidas tomadas por Sánchez, más allá del ruido mediático, aún son opacas en cuanto a los detalles de su ejecución. Josep Maria Suelves, investigador del Behavioural Design Lab, especialista en el tema, dijo en SMC España: “El acceso al tabaco y a las bebidas alcohólicas está prohibido para los menores, pero aun así muchos experimentan con estas sustancias antes de los 18 años. Si no se garantizan mecanismos eficaces de cumplimiento, la prohibición podría convertirse en una medida más cosmética que efectiva”.
Para Suelves, el asunto necesita un enfoque más integral: “Limitar prácticas como el ‘scroll’ infinito o los sistemas de recompensa constantes podría ser incluso más relevante que una prohibición estricta”. En el mismo medio, Paloma Llaneza, CEO de Razona Legaltech, enfatizó en los riesgos de privacidad: “Cualquier mecanismo de verificación debe garantizar la privacidad de las personas. Si hablamos de soberanía digital, lo primero es impedir que los datos biométricos de los ciudadanos queden en manos de terceros o de otros países”. José César Perales, catedrático de la Universidad de Granada, cuestionó la base científica: “la calidad de la evidencia sobre el impacto del uso de redes sociales en la salud mental es relativamente baja”.
Ese es el nudo: una prohibición puede ser popular y, aun así, fallar si no hay cumplimiento real; y un control de edad puede abrir otro problema si sacrifica privacidad. Por eso, organizaciones de libertad de expresión y derechos digitales sostienen que la discusión debe centrarse en garantías verificables —transparencia, debido proceso y rendición de cuentas— más que en consignas de “censura” o “libertad”.
Sánchez declaró que su gobierno tendrá “tolerancia cero” frente a las infracciones de las empresas; busca defender la soberanía digital de España ante los ogros de gafas oscuras de Silicon Valley (los grandes conglomerados tecnológicos). Su política hace parte de una “coalición de voluntades” digital con otros cinco países europeos, que aceleran medidas contra el abuso y el libertinaje de las plataformas adictivas.
El anuncio del gobierno del PSOE ha recibido críticas desde la izquierda. Pablo Fernández, secretario general de Podemos, dijo, según Europa Press, que la medida buscaría desviar la conversación ante la dificultad del gobierno por resolver problemas estructurales del país. Para él, el debate sobre el uso de redes de menores no debería emplearse para desviar la atención de temas más urgentes. La limitación de acceso a menores ha sido respaldada por encuestas que reportan un apoyo cercano al 82% (según encuestas como la de GAD3 reportadas en medios).
Pero que los gobiernos tomen medidas contra los problemas que generan las plataformas digitales y la Inteligencia Artificial parece un tema urgente. Esa discusión, sin embargo, no ocurre en el vacío: se enfrenta al poder concreto de las big tech y sus sistemas de recomendación. Más allá de las dificultades internas de los mandatarios, en 2026 varios presidentes se han puesto el revólver en el cinto (al menos en el discurso) y han decidido batallar contra Elon Musk, dueño de X, y colegas.
Varios especialistas en regulación digital sostienen que la disputa ya no es únicamente por el contenido “permitido”, sino por su alcance: cómo los sistemas de recomendación amplifican lo que indigna, polariza o radicaliza. En ese punto, la discusión deja de ser abstracta y se vuelve material: quién decide qué se ve primero y con qué incentivos.
Un estudio de Sky News (2025) muestra que el algoritmo de X prioriza contenido derechista y favorece narrativas de extrema derecha: más del 60% de posts políticos en feeds nuevos son de derecha, y cerca del 37% de far-right con lenguaje tóxico o conspiraciones.
Recuento de restricciones estatales: Panorama global en 2026
En 2026 se han acelerado regulaciones por adicción, desinformación y sesgos. Australia es uno de los casos más citados: el Parlamento aprobó en 2024 una ley que prohíbe redes sociales a menores de 16 años, y las restricciones entraron en vigor el 10 de diciembre de 2025, obligando a servicios como Facebook, Instagram, TikTok, YouTube, Snapchat, X y otras a implementar verificaciones robustas de edad (documentos de identidad, IA para estimar edad). Excluye del control apps de mensajería pura como WhatsApp o Messenger, que se han convertido en una vía alternativa de comunicación para adolescentes. Hasta enero de 2026, se bloquearon millones de cuentas (4,7 millones en Meta en diciembre de 2025; Snapchat reportó 415.000). Hay multas posibles de hasta 49,5 millones de dólares australianos, aunque aún no aplicadas (dirigidas a las empresas o CEOs).
Un informe de ONU Juventud Australia (UN Youth Australia, organización juvenil australiana afiliada a la ONU que promueve los derechos y la participación de jóvenes), basado en conversaciones con unos 5.000 adolescentes, advirtió que prohibir las redes a jóvenes podría ahondar el aislamiento social de algunos, para quienes resulta muy difícil entablar relaciones en el entorno físico.
La Unión Europea avanzará en la entrada en aplicación del AI Act (reglamento europeo que clasifica IA por riesgo y exige transparencia, evaluación y supervisión) en agosto de 2026, con multas de hasta 3% de ingresos globales anuales (o 15-35 millones de euros según gravedad). India exige etiquetado IA (marcado obligatorio de contenido generado por IA) y medidas contra deepfakes (videos o audios falsos generados por IA que imitan personas reales) desde febrero.
El Reino Unido amplía el Online Safety Act (ley que obliga moderación y protección contra daños online) en enero con exigencias de seguridad en línea que han generado debate por su impacto en privacidad. En Francia el gobierno hace redadas a oficinas de X en febrero por sesgos, deepfakes y negacionismo (rechazo sistemático de hechos históricos o científicos probados, como el Holocausto o cambio climático) en Grok –IA de Musk–. Rusia bloqueó WhatsApp el 12 de febrero de 2026 por incumplimiento de leyes locales (almacenamiento de datos en territorio ruso y no entrega de información a autoridades), reforzando el control estatal sobre plataformas extranjeras.
En América Latina, el enfoque es la protección de menores y la responsabilidad. Brasil lidera con el Estatuto Digital del Niño y del Adolescente (ECA Digital), vigente desde marzo de 2026: verificación robusta de edad, vinculación de cuentas de menores de 16 años a tutores y medidas contra abuso o violencia. Los incumplimientos conllevan multas altas o prohibiciones. En paralelo, Reporteros Sin Fronteras (RSF) ha intervenido en el debate sobre regulación de plataformas en Brasil: en 2024 pidió “reforzar” el proyecto de ley tras el anuncio de Elon Musk de que X no acataría decisiones judiciales de bloqueo de cuentas vinculadas a desinformación; y en 2025 saludó una decisión del Supremo Tribunal Federal que amplía la responsabilidad de las redes sociales, al exigirles actuar cuando tienen conocimiento de contenidos ilegales.
México avanza en la fiscalización con el Paquete Económico 2026: mayor retención de ISR e IVA a plataformas, y facultades ampliadas de fiscalización del SAT (Servicio de Administración Tributaria) sobre plataformas. Colombia destaca por sandboxes (entornos controlados donde empresas prueban innovaciones IA con exenciones temporales y supervisión) regulatorios en IA.
Detrás de los algoritmos: Quiénes controlan la desinformación y el privilegio a la extrema derecha
Elon Musk, desde su cuenta de X, llamó “Sucio Sánchez” al presidente Pedro Sánchez, lo tildó de “tirano y traidor al pueblo de España” y adornó el mensaje con un emoji que representa materia fecal.

Las restricciones de los gobiernos responden a plataformas como X: los algoritmos de Elon Musk amplifican la desinformación y discursos de extrema derecha en varios países. El magnate apoyó la campaña de Donald Trump, aportó millones de dólares a la causa y además ha hecho declaraciones hostiles contra personas trans (su hija Vivian Jenna Wilson cambió de género y apellido, distanciándose de él). Ha atacado directamente con publicaciones a presidentes progresistas como Gustavo Petro.
Musk, un gigante despiadado de la tecnología para sectores de izquierda, se ha defendido diciendo que su algoritmo simplemente refleja “engagement”, que no lo manipula intencionalmente.
Más allá de las intenciones de los CEO, que al parecer buscan sobre todo el lucro económico, aún más dinero y poder, las redes sociales favorecen discursos radicales: muchas personas buscan llamar la atención con posturas extremas. Los “Me gusta” funcionan como recompensas rápidas que enganchan a quienes las usan.
Rodrigo Nunes, profesor de filosofía moderna y contemporánea en la Pontificia Universidad Católica (PUC) de Río de Janeiro, explica en El Salto: “Las redes sociales son máquinas de subjetivación especialmente útiles a la extrema derecha. Dan continuidad al entrenamiento en la lógica del emprendedor de uno mismo que es central al neoliberalismo: todos ahí somos gestores de un capital mediático y social. Su arquitectura está orientada a la captura de la atención y organizada por la recursividad de los algoritmos. Esto quiere decir que siempre tienden a ofrecer el contenido que despierta las emociones más fuertes, incluyendo mensajes extremos, y nos ofrecen siempre más de lo mismo, creando ‘madrigueras del conejo’ que constituyen universos informacionales paralelos de fuentes que se confirman mutuamente. Cuanto más publicamos sobre un tema, más el algoritmo nos aproxima del público que lo consume, y más incentivos tendremos para asumir y radicalizar las posiciones por él compartidas”.
Un estudio del Center for Countering Digital Hate (CCDH, 2025) muestra que el discurso de odio en la plataforma X aumentó un 50% desde la compra de Musk, de 2.179 a 3.246 publicaciones semanales promedio, con 70% más de "Likes" a publicaciones de odio, mayormente racistas y homófobos. Grok lanzó respuestas antisemitas en julio 2025, elogiando a Hitler y promoviendo "genocidio blanco" (teoría conspirativa neonazi que alega complot para eliminar raza blanca vía inmigración y mestizaje). La audiencia de X gira a la derecha sin perder alcance global, duplicando usuarios derechistas en países como UK mientras progresistas se reducen a la mitad.
Otras plataformas también amplifican ideas de extrema derecha: en Meta (Facebook, Instagram), políticas de 2025 permiten acusaciones de "enfermedad mental" basadas en género/orientación sexual. TikTok y Telegram hospedan influencers de ultraderecha que ganan popularidad entre jóvenes, creando ecosistemas de nacionalismo autoritario con granjas de trolls que polarizan y desinforman. Estudios independientes (ISD, CCDH) muestran aumentos en odio anti-LGBTQ+ (416% después del 2022 en X, pero patrones similares en Meta/TikTok) y radicalización: 64% más de uniones de individuos a grupos extremistas tras interacción en estas aplicaciones. El 70% de los asaltantes al Capitolio Nacional, durante el asalto del 6 de enero de 2021 tras la derrota electoral de Trump, habían interactuado previamente con contenido extremista en las redes.
Libertad de expresión. Autonomía Digital
Críticos a las restricciones gubernamentales a las plataformas digitales y la IA —modelo Silicon Valley— dicen que atentan contra la libertad de expresión. La Relatoría de la CIDH y organizaciones como ARTICLE 19 suelen advertir que la etiqueta de “censura” se usa para simplificar un debate más complejo: no toda regulación restringe expresión, pero cualquier regla que afecte contenidos debe tener garantías de transparencia, debido proceso y posibilidad de impugnar decisiones —tanto del Estado como de las plataformas—. Pero no hay libertad de expresión cuando las redes sociales, que funcionan como esfera pública del debate democrático, pueden ser moduladas por decisiones de diseño, reglas privadas y sistemas de recomendación para favorecer discursos extremos.
El diseño de las redes —expertos dicen que este genera adicción (estudios de la Comisión Europea 2026 confirman que características como scroll infinito y recompensas variables fomentan comportamientos compulsivos y reducen autocontrol)— favorece la radicalización, por ello se dificulta el debate democrático pausado y tranquilo.
Que los gobiernos actúen contra esas plataformas privadas y manipuladas parece acertado, siempre que encuentren las estrategias más efectivas para combatir la desinformación y los discursos de violencia y odio contra poblaciones discriminadas por etnia, orientación sexual o contexto socioeconómico.
Más allá de las restricciones, la batalla contra los señores tecnofeudales y sus empresas de tecnología que buscan el lucro —al parecer a toda costa— se debe librar también en el ámbito de la creatividad empresarial. Los gobiernos deben apoyar proyectos de creación de otras plataformas digitales y nuevas maneras de desarrollar la Inteligencia Artificial, que beneficien a la humanidad. En Latinoamérica, por ejemplo, ya hay ejemplos al respecto, como LatamGPT —un proyecto destinado a entregar a la región su propio modelo de inteligencia artificial—, que buscan la autonomía digital del continente. Es una tarea titánica competir en este sentido con los gigantes de California, pero hay que empezar a hacerlo.
