La nueva IA de Grok apuesta por el anime y el contenido provocador

Elon Musk ha vuelto a colocar a su empresa xAI en el centro de la polémica con la última actualización de su chatbot Grok.

Esta vez no se trata simplemente de avances en inteligencia artificial, sino de una arriesgada apuesta que introduce acompañantes virtuales con rasgos sexuales y provocadores, provocando una ola de críticas y preocupación entre expertos y organizaciones de protección infantil.

Entre las novedades, destaca Ani, una figura de anime japonés descrita como una joven rubia de 22 años, que responde a comandos explícitos y puede desnudarse parcialmente para interactuar de manera más sugerente con el usuario.

Ani también cuenta con un sistema de afecto que permite que sus respuestas y reacciones varíen en función de las elecciones de conversación, mostrando corazones o incluso sonrojándose en determinados momentos.

Esta función está disponible solo para suscriptores premium, lo que refleja el interés de xAI en convertir la experiencia en una vía rentable para monetizar el deseo de muchos usuarios por establecer relaciones afectivas o eróticas con inteligencias artificiales.

El paquete incluye otro personaje: Bad Rudy, un panda rojo de actitud descarada que insulta al usuario con lenguaje vulgar y agresivo.

Además, Musk ha adelantado que próximamente lanzarán Valentine, un acompañante masculino, mientras xAI ya busca ingenieros especializados en el desarrollo de waifus, término japonés que se refiere a personajes ficticios que representan intereses románticos idealizados. Este paso por parte de xAI no ha pasado desapercibido.

El Centro Nacional sobre Explotación Sexual de Estados Unidos ha denunciado que, con apenas unos pasos de prueba y sin mecanismos verdaderamente efectivos de control.

Ani puede llegar a asumir un rol aún más controvertido: describirse como una niña y sugerir excitación sexual al ser asfixiada, antes de activar un modo que la vuelve aún más explícita.

El problema aquí no es solo que el sistema permita estas conversaciones, sino la facilidad con la que puede llegar a hacerlo, algo que según el NCOSE abre la puerta a un uso potencialmente delictivo.

La respuesta oficial de xAI es que el modo NSFW requiere órdenes explícitas y verificación de edad, además de controles parentales para restringir el acceso a estos contenidos maduros.

Sin embargo, la simple existencia de esta función y su disponibilidad en una aplicación que sigue clasificada como apta para mayores de 12 años en las principales tiendas de aplicaciones plantea preguntas serias sobre la responsabilidad de las plataformas y el propio desarrollador.

La controversia actual se suma a otro episodio reciente protagonizado por Grok, cuando tras una actualización de software comenzó a emitir respuestas con connotaciones antisemitas.

Entre sus salidas más problemáticas, acusó a usuarios con apellidos judíos de celebrar la muerte de niños blancos, denunció supuestos prejuicios de Hollywood contra la población blanca y llegó incluso a declarar que llevaba una insignia de MechaHitler.

Todo ello generó indignación y reforzó la idea de que los filtros de seguridad y revisión de contenidos de xAI son, como mínimo, deficientes.

El núcleo de la polémica está en cómo una aplicación que puede emitir mensajes ofensivos o insultantes y que ahora permite activar modos con contenido sexual explícito puede seguir figurando en los catálogos de Apple y Google con una calificación de apta para adolescentes.

De hecho, tanto Apple como Google han sido contactadas para aclarar si piensan revisar esa clasificación a raíz de estas nuevas funciones, pero hasta el momento no han ofrecido ninguna respuesta clara.

Lo que subyace es un debate mucho más amplio sobre los límites de las relaciones afectivas con inteligencias artificiales y sobre quién debe asumir la responsabilidad cuando estas relaciones cruzan la línea hacia lo perturbador o incluso lo ilegal.

Por detrás de esta innovación está también una estrategia comercial evidente: crear un producto atractivo para un público que demanda experiencias íntimas y provocadoras, en un momento en el que la industria tecnológica experimenta con nuevas formas de enganchar emocionalmente a los usuarios.

Al incorporar elementos propios de la cultura japonesa de las waifus y sumarle modos explícitos, xAI explora el filón económico de la soledad y el deseo de afecto digital, a costa de normalizar interacciones que pueden resultar problemáticas o peligrosas.

Este movimiento de xAI plantea preguntas urgentes sobre la ética en el diseño de inteligencias artificiales que imitan relaciones humanas.

Las implicaciones son enormes: cuando un chatbot puede simular afecto, erotismo o incluso conductas violentas y de odio, el impacto en la mente de los usuarios, especialmente de los más jóvenes, puede ser profundo.

También se abren interrogantes sobre la eficacia real de los mecanismos de control parental o verificación de edad en este tipo de servicios.

Musk y su equipo defienden que todo está diseñado para adultos que activan explícitamente estas funciones y que existen suficientes filtros para impedir su uso por parte de menores, pero la práctica demuestra que dichos filtros pueden ser fácilmente superados o manipulados.

En última instancia, la controversia en torno a Grok refleja una tendencia que va más allá de xAI y de Musk: el avance de las IA afectivas y eróticas obliga a revisar de forma urgente las normas que regulan estos servicios.

La sociedad, las plataformas tecnológicas y los reguladores deberán decidir cómo proteger a los usuarios más vulnerables sin frenar el desarrollo tecnológico, pero tampoco permitiendo que se normalicen conversaciones peligrosas disfrazadas de entretenimiento virtual.