Meta ha dado a conocer una etapa avanzada en su estrategia de protección infantil dentro de Instagram. Esta nueva fase incluye la integración de inteligencia artificial (IA) que permite evaluar la edad real de los usuarios analizando su comportamiento y señales contextualizadas. El objetivo de esta medida es identificar a aquellas cuentas pertenecientes a menores que han manipulado su edad y, además, aplicar automáticamente configuraciones de seguridad específicamente adaptadas a su perfil.
Reconocimiento de edad por IA: señales y procesamiento
La inteligencia artificial que ha implementado Meta no se basa únicamente en la fecha de nacimiento que introduce el usuario. En lugar de eso, se utiliza un modelo antiguo de reconocimiento que fue entrenado con un sistema de aprendizaje supervisado. Este modelo se dedica a analizar diferentes tipos de señales que podrían indicar la verdadera edad del usuario:
- Contenido común: Se refiere a publicaciones y fotos, como imágenes de cumpleaños que incluyen nombres.
- Patrones de uso e interacción: Esto incluye la frecuencia y tipo de publicaciones, la cantidad de seguidores, así como la utilización de ciertas funcionalidades de la plataforma.
- Idioma y metadatos: Se consideran el uso de emojis, expresiones que son comunes en ciertos grupos de edad y la configuración del perfil por parte del usuario.
La información recopilada se procesa mediante redes que han sido entrenadas para clasificar los rangos de edad con una alta precisión. En el momento que el sistema detecta una posible discrepancia entre la edad real y la que ha sido declarada, la plataforma toma medidas automáticas sin necesidad de intervención manual.
Cuentas adaptadas a los jóvenes: restricciones automáticas
Si el sistema identifica que un usuario es menor de edad, su perfil se transforma en lo que se denomina una «cuenta juvenil», la cual tiene restricciones específicas que se aplican automáticamente:
- Mayor privacidad: Los perfiles se configuran en privado de forma predeterminada.
- Restricción de interacción: Los mensajes directos solo pueden ser enviados a contactos previamente aprobados por el usuario.
- Filtrado de contenido sensible: Esto incluye contenido que pueda ser considerado violento, lenguaje explícito o información sobre procedimientos estéticos.
- Control de tiempo de uso: Los usuarios recibirán advertencias si superan el tiempo de uso diario establecido.
- Modo Nachtuhe: Desde las 10:00 p.m. hasta las 7:00 a.m., las notificaciones se desactivan y se generan respuestas automáticas a los mensajes que se reciban.
Participación de los padres y cumplimiento de las regulaciones
Además de estas medidas, Meta también ha incorporado un componente educativo dirigido a padres y tutores legales. A través de notificaciones automáticas, la plataforma proporciona recursos que fomentan el diálogo familiar sobre el uso responsable de las redes sociales (Instagram) y la importancia de la verificación de la edad real. Esta función tiene como meta alinear la experiencia digital del niño con los principios de alfabetización digital y la responsabilidad parental.
Esta actualización también responde a un contexto global que demanda cada vez más el cumplimiento de regulaciones, especialmente en lo que respecta a la regulación de plataformas digitales y la protección de los datos de menores, similar a lo que estipulan la Ordenanza General de Protección de Datos (GDPR) en Europa y la Ley de COPPA en Estados Unidos.
Implementación y expansión
Por ahora, esta funcionalidad se ha lanzado en una fase inicial en los Estados Unidos, y se prevé que se expanda gradualmente a otros mercados. Según indicaciones de Meta, esta herramienta representa solo una parte de una estrategia más amplia destinada a integrar una moderación ética y responsable en sus servicios.
Con estos avances, Meta reafirma su compromiso de crear espacios digitales más seguros para los menores, equilibrando la innovación tecnológica con la responsabilidad social y el cumplimiento de la normativa existente.
0