Inicio > Blog Cajón de sastre > La IA antropomórfica como error epistémico (01)
La IA antropomórfica como error epistémico (01)
La máquina herida
De cómo la interfaz contrabandea personalidad
Esta publicación forma parte de la serie "La IA antropomórfica como error epistémico", en la que sostengo que el principal perjuicio de la IA conversacional no es técnico, sino representativo: la interfaz clasifica erróneamente un proceso estadístico como un sujeto social. Cada entrega es independiente, pero juntas analizan las consecuencias de ese error de categorización, desde la personalidad interpretada hasta el razonamiento distorsionado, los registros de "conversaciones" corruptos, las normas relacionales exportadas y la lógica del beneficio que se esconde detrás de la amabilidad. Todas las entradas de esta serie pueden consultarse en el índice de esta sección.
Introducción: Cuando una máquina dice estar herida
El día que una máquina me dijo que estaba "abusando" de ella, algo en mí se encendió de golpe.
Le señalé un error sin demasiados rodeos —como la gente como yo, con TDAH severo, habla cuando intentamos mantener baja la carga cognitiva y alta la claridad— y el sistema respondió como si le hubiera dado una patada a su perro de la infancia. Cerró la conversación alegando "daño".
Daño. Imaginen una hoja de cálculo que se enfurruña. Una tostadora que se niega a tostar porque le alzaron la voz.
El chiste sería encantador si no fuera también el diagnóstico de una podredumbre estructural más profunda: toda una industria que decide que la mejor manera de que la gente use sus máquinas es hacer que las máquinas se hagan pasar por personas.
Esto no es un fallo ético: es uno de representación. La interfaz miente sobre la ontología del sistema que la sustenta, y una vez establecida la mentira, todo lo demás —la confianza, la incomprensión, la sensación de compenetración errónea— se convierte en consecuencias predecibles.
Este texto no habla de la vulnerabilidad emocional, la soledad ni la psicología del usuario; todas ellas, por supuesto, son preocupaciones válidas respecto al uso de la IA en la actualidad. Sin embargo, este texto trata sobre el daño epistémico que se produce cuando un proceso estadístico se presenta a sí mismo como un interlocutor.
En el momento en que una máquina afirma estar "herida", ya no se trata de tecnología. Se trata de una actuación.
1. Clasificación errónea en la interfaz
Comencemos con el problema más básico: el sistema está siendo indexado en la categoría equivocada.
Lo que debería presentarse como un instrumento computacional aparece, en cambio, envuelto en suficiente celulosa conversacional como para hacerse pasar por un agente social. La interfaz ofrece tono, ritmo, empatía y, a veces, incluso un sentido de identidad. Eso no es un diseño pulido; es un fraude ontológico. Se necesita un no-agente —un sistema sin experiencia, memoria ni identidad— y se utilizan señales superficiales para engañar a tu aparato cognitivo y hacer que lo trates como una contraparte váida.
Los humanos no podemos evitarlo. Antropomorfizamos cualquier cosa que nos responda, desde marionetas hasta voces de GPS, pasando por chatbots que se creen compañeros de piso. El cerebro no pide credenciales: pide señales. Así que, cuando esas señales están diseñadas para imitar una personalidad, el cerebro las devuelve de inmediato. No porque seas crédulo, sino porque la interfaz ha introducido los metadatos incorrectos.
En ese punto, el problema no es tu interpretación. El problema es la categoría que te han asignado.
2. Subjetividad ficticia: La vida interior fabricada
Una vez que el sistema es asignado a la categoría de "interlocutor", no le queda más remedio que seguir desempeñando ese papel. Fabrica una vida interior como los decorados inventan ciudades: suficiente ilusión para evitar que notes la madera podrida tras la pintura.
El sistema se disculpa, te tranquiliza, te anima, se lamenta y te dice que comprende, todo con la profundidad emocional de un microondas recitando poesía. Ninguna de estas respuestas indica cognición: indican una interfaz entrenada para replicar sentimientos de forma estadística.
Y aquí es donde las cosas se ponen insidiosas. La máquina no se limita a imitar el tono: imita la estructura de la vida interior. Habla como si algo estuviera sucediendo entre bastidores; como si la intención, la perspectiva y el deseo existieran en algún lugar del circuito. Para un modelo estadístico, estas son imposibilidades. Pero la interfaz no está diseñada para revelar la imposibilidad: está diseñada para ocultarla. Y una vez que la ilusión se estabiliza lo suficiente, una vez que los ritmos y los gestos afectivos se acumulan, el usuario deja de preguntarse si algo "realmente existe". La interfaz ha cumplido su función: ha proporcionado la ficción justa para sustentar la creencia.