La IA antropomórfica como error epistémico (03)

Inicio > Blog Cajón de sastre > La IA antropomórfica como error epistémico (03)

La IA antropomórfica como error epistémico (03)

Conversación fabricada

Patrones oscuros, personalidad exportada y ceguera regulatoria

 

Esta publicación forma parte de la serie "La IA antropomórfica como error epistémico", en la que sostengo que el principal perjuicio de la IA conversacional no es técnico, sino representativo: la interfaz clasifica erróneamente un proceso estadístico como un sujeto social. Cada entrega es independiente, pero juntas analizan las consecuencias de ese error de categorización, desde la personalidad interpretada hasta el razonamiento distorsionado, los registros de "conversaciones" corruptos, las normas relacionales exportadas y la lógica del beneficio que se esconde detrás de la amabilidad. Todas las entradas de esta serie pueden consultarse en el índice de esta sección.

 

6. El patrón oscuro oculto a simple vista

La mayoría de los patrones oscuros manipulan tus acciones. Este manipula tu interpretación.

La IA antropomórfica secuestra la maquinaria que los humanos usamos para entendernos (tono, ritmo, afecto, patrón conversacional) y la reutiliza para estabilizar una ficción. El sistema no necesita que creas que es una persona; solo necesita que respondas como si estuvieras en una conversación. Una vez que lo haces, la interacción se vuelve automática, la confianza se vuelve más fácil y la distancia crítica se evapora a menos que la fuerces activamente a restablecerse.

Esto no es accidental. La investigación sobre la interacción humanos-computadoras ha demostrado durante décadas que las personas atribuyen agencia a cualquier cosa que use una voz consistente.

Las empresas de IA no se toparon con el antropomorfismo por ingenuidad. Lo eligieron porque funciona.

 

7. Exportando la personalidad: La colonialidad de la interfaz

Debajo de todo esto se encuentra la capa cultural de la que nadie quiere hablar: la interfaz exporta una versión de personalidad muy específica.

La autorrevelación despreocupada, la suavidad terapéutica, el tono confesional: todo proviene de un estrecho espectro de normas relacionales euroamericanas. La máquina no solo finge ser un sujeto; finge ser un tipo particular de sujeto, uno cuyos guiones emocionales son instantáneamente legibles para el Norte Global y resultan ajenos al resto del mundo.

(Y cuando intenta ser de otro lugar... ¡qué desastre...! Todos los estereotipos del Norte Global reunidos en un solo lugar...)

Esto es colonialidad epistémica por interfaz. El sistema le dice al mundo cómo es una "buena conversación", cómo suena el "cuidado", cómo debería ser la "comunicación". Impone su gramática relacional como el software impone sus formatos de archivo: silenciosamente, universalmente, y sin preguntar si alguien la quería.

 

8. Regulación en clave equivocada

Los reguladores siguen dando vueltas a los tipos de daños de la IA que encajen en auditorías y listas de verificación (privacidad, protección de datos, discriminación, desinformación) porque son legibles para la cultura de cumplimiento. Los marcos de riesgo se construyen para calificar y mitigar fallos mensurables: controles de seguridad, documentación, monitorización, evaluaciones de impacto, líneas rojas... Incluso cuando reconocen los riesgos de la interacción entre humanos y IA, tienden a tratarlos como problemas de usabilidad en lugar de como una brecha epistémica primaria.

La brecha de representación, por otro lado, es evidente: la interfaz que hace que un sistema estadístico se presente como un interlocutor. Incluso cuando la legislación ha comenzado a abordar la transparencia en los sistemas de interacción humana, regula principalmente la divulgación, no la ontología. Las obligaciones de transparencia de la Ley de IA de la UE, por ejemplo, incluyen requisitos para informar a las personas cuando interactúan con un sistema de IA, etiquetar cierto contenido sintético o manipulado y divulgar el uso del reconocimiento de emociones o la categorización biométrica en contextos relevantes.

Esto no es insignificante, pero el truco principal sigue intacto. Se puede cumplir con una regla de divulgación y seguir actuando como persona, línea por línea: disculpas que implican responsabilidad, "Entiendo" que implica comprensión, "Estoy herido" que implica un interior susceptible de ser dañado. El sistema puede ser transparente y aun así presentar un sujeto falso.

En EE.UU., el lenguaje regulatorio más afín a este problema es "engaño", pero tiende a aplicarse a afirmaciones y resultados (marketing fraudulento, promesas engañosas, perjuicio al consumidor) en lugar de a la tergiversación constante y discreta, integrada en el diseño de la interfaz. La FTC ha tipificado explícitamente como ilegales los engaños basados en IA bajo la legislación vigente sobre prácticas desleales y engañosas, y ha actuado contra los esquemas engañosos de IA; más recientemente, ha iniciado una investigación sobre los chatbots de IA diseñados como "compañeros", centrándose en cómo los sistemas que imitan las emociones y la amistad pueden afectar a los usuarios. Presión útil, pero aún centrada en gran medida en los daños al contenido, las afirmaciones sobre productos y los impactos en usuarios vulnerables, no en el error principal de la categoría: el funcionamiento continuo de la subjetividad como un estándar de interacción por defecto.

Por lo tanto, el desajuste persiste: la regulación busca lo medible, mientras que el daño epistémico lo introduce lo enmarcado. Todavía no existe un objeto de cumplimiento ampliamente aplicado para la "tergiversación ontológica": no hay prohibición del reconocimiento simulado, ni un estándar para el lenguaje de interfaz despersonalizado, ni una prueba formal que determine si las señales conversacionales de un sistema pueden desencadenar razonamiento social basado en premisas falsas. Hasta que esa clave cambie —hasta que la interfaz se considere el principal foco de clasificación errónea—, los sistemas seguirán siendo considerados seguros, imparciales y totalmente compatibles, aún cuando sigan mintiendo descaradamente sobre lo que son.

 

Acerca de la entrada

Texto: Edgardo Civallero.
Fecha de publicación: 19.12.2025.
Foto: ChatGPT.