Cuando la inteligencia artificial decide si eres mayor de edad
Meta ha comenzado a desplegar un sistema de IA capaz de analizar la estructura ósea y la estatura para detectar si son menores de edad

En los últimos días ha trascendido una noticia que ha generado reacciones de todo tipo: Meta, la empresa matriz de Facebook e Instagram, ha comenzado a desplegar un sistema de inteligencia artificial capaz de analizar la estructura ósea y la estatura de los usuarios que aparecen en fotografías y vídeos para detectar si son menores de edad. Una medida que, con independencia de las intenciones que la impulsan, abre un debate profundo sobre los límites de la vigilancia digital y el precio de la seguridad en internet.

¿Cómo funciona exactamente?
El sistema utiliza inteligencia artificial para examinar la estructura ósea de las personas que aparecen en las publicaciones, y también analiza señales visuales y temas generales en las imágenes compartidas dentro de las plataformas. El objetivo declarado es detectar perfiles de adolescentes que aseguran ser mayores de edad para acceder a contenidos o funciones no permitidas para su grupo de edad.
Meta matiza que esta tecnología no está basada en el reconocimiento facial, ya que «no identifica a la persona específica en la imagen». La IA examina la altura y estructura ósea de la persona como parte de lo que la compañía denomina una «tecnología sofisticada» para abordar el «desafío complejo» de determinar la edad de una persona en línea.
Pero el análisis no se limita al cuerpo. La IA también rastrea publicaciones, comentarios, biografías y pies de foto en busca de «pistas contextuales» que puedan delatar a un menor que miente sobre su edad. Es decir, la herramienta combina una lectura física con una lectura conductual: qué aspecto tienes y cómo te comportas en la red.
Cuando el sistema detecta que un usuario podría ser menor de la edad permitida, Meta puede desactivar la cuenta de inmediato o restringir funciones de manera severa. En concreto, si el sistema concluye que alguien es menor de 13 años, la cuenta será eliminada. Si detecta que un adolescente se ha hecho pasar por adulto, será reclasificado automáticamente dentro de las cuentas restringidas para menores, con límites en contenidos e interacciones.

¿Por qué ha llegado Meta a este punto?
Para entender esta decisión, hay que mirar hacia atrás y comprender el contexto de presión extraordinaria al que lleva años sometida la compañía de Mark Zuckerberg. La decisión llega en un momento de presión sin precedentes. Demandas judiciales, investigaciones regulatorias y un clima social cada vez más crítico han empujado a la empresa a reforzar sus mecanismos de control.
El detonante inicial fue la filtración, en 2021, de miles de documentos internos por parte de Frances Haugen, exempleada de Facebook. Aquellos archivos revelaron que la empresa era consciente del daño que sus plataformas causaban en la salud mental de los jóvenes y, sin embargo, no actuó. A raíz de eso, las demandas comenzaron a acumularse. Padres de adolescentes afectados por trastornos mentales y suicidios iniciaron acciones legales, culminando en una demanda colectiva que involucra a múltiples plataformas. La presión creció hasta el punto de que fiscales generales de 41 estados presentaron una demanda contra Meta, acusando a la compañía de causar daño a los menores y de no informar sobre los riesgos asociados con sus productos.
A esto se suma la presión desde Europa. Esta expansión responde también a la presión de los reguladores, especialmente en la Unión Europea. Tras ser probada en Estados Unidos, se espera que la herramienta llegue a España y otros mercados a partir de junio de 2026.
Sería ingenuo pensar que Meta actúa únicamente por altruismo o por presión judicial. Al mismo tiempo, la compañía atraviesa una reestructuración interna marcada por despidos masivos y una fuerte apuesta por la inteligencia artificial. La inversión en estos sistemas no solo responde a una necesidad regulatoria, sino a una estrategia más amplia: automatizar la moderación y reducir la dependencia de intervención humana.
En otras palabras, proteger a los menores y reducir costes operativos van de la mano en este caso. Las máquinas moderan más barato que las personas, y si además ese proceso satisface a los reguladores, mejor que mejor.
Para saber más:









