ver más

Hacete socio para acceder a este contenido

Para continuar, hacete socio de {}. Si ya formas parte de la comunidad, .

{# Opciones de Suscripción #} {# DESCOMENTAR AL IMPLEMENTAR: #} {# {% for n, m in this.getPaywallPlans('thinkindot', 'plans') %} {% if (m.tab == "all" or m.tab == "mensual") %} #}

{{m.shortDescription}}

{{m.title}} {{m.price}} mensual
{# {% endif %} {% endfor %} #} {# estos links no sé como se llenarian #}

Ex directora acusa a Meta de explotar la vulnerabilidad emocional de adolescentes inseguros con IA

Su testimonio revela que la plataforma Meta identificaba cuándo los adolescentes se sentían inseguros para lanzarles anuncios lucrativos.

Sarah Wynn-Williams, exdirectora de Políticas Globales en Facebook (hoy Meta), relató al Senado de Estados Unidos una práctica preocupante; dijo que Meta utilizaba algoritmos de inteligencia artificial para detectar estados emocionales negativos en menores de 13 a 17 años —como sentirse inútiles, inseguros o deprimidos— y compartía esa información con anunciantes que les ofrecían productos específicos aprovechando los momentos de fragilidad.

Según su testimonio, los sistemas de la empresa podían identificar conductas como eliminar selfies —indicativo de inseguridad corporal— y disparar inmediatamente anuncios de cosmética o programas de pérdida de peso a esa adolescente.

“Los adolescentes son muy valiosos”: el cinismo en el corazón del modelo

Wynn-Williams relató que Meta sabía que este grupo era “vulnerable, pero muy valioso” para los anunciantes. En su libro Careless People, describe conversaciones internas donde se valoraba explícitamente esta capacidad de monetización. También reveló que muchos altos ejecutivos de Meta restringían el acceso de sus propios hijos a sus productos, conscientes del daño emocional que podían causar.

Meta negó las acusaciones, calificándolas como “alegadas, infundadas y divorciadas de la realidad”. Aseguraron que estas prácticas no forman parte de sus políticas de anuncios dirigidos y que han implementado cambios para proteger la experiencia de los adolescentes, como las cuentas de “Teen Accounts” con filtros preestablecidos y control parental.

Sin embargo, estos contraargumentos se suman a un patrón más amplio de cuestionamientos hacia la plataforma por priorizar el engagement sobre la seguridad, especialmente en poblaciones sensibles.

¿Una práctica sistemática? Las repercusiones éticas y regulatorias

El testimonio de Wynn-Williams se inserta en un contexto donde Meta ya enfrenta múltiples investigaciones. Se le acusa de diseñar sus plataformas para enganchar a jóvenes mediante algoritmos adictivos, desatendiendo los daños psicológicos que esto les puede causar

Expertos y legisladores advierten que lo que en otros ámbitos sería considerado explotación emocional podría ser una violación ética o incluso legal, especialmente tratándose de menores.

Las denuncias de Sarah Wynn-Williams ponen en el centro una pregunta clave: ¿puede una empresa tecnológica usar la inteligencia artificial para beneficiar sus ingresos, incluso si implica atacar las inseguridades de menores? Si resultara ser una práctica estructural, podría demandar una respuesta regulatoria urgente y cambios profundos en cómo se gestiona la publicidad en línea dirigida a adolescentes.

Temas

Más Leídas

Seguí Leyendo