CónclaveGPT

Seleccione idioma

Spanish

Down Icon

Seleccione país

Mexico

Down Icon

CónclaveGPT

CónclaveGPT

En tiempos de algoritmos, IA y datos masivos, el mundo ha estado dos días pendiente de un bit: una chimenea que dice o blanco o negro. Dos mundos, el computacional y el religioso, separados por dos mil años de tradición y cuatrocientos de ciencia. Pero quizá no son tan distintos.

Podemos ver un cónclave como un ChatGPT que solo sabe responder a la pregunta “¿Quién será el próximo Papa?”. Una red neuronal donde los 133 cardenales son las neuronas y sus relaciones las conexiones. Los debates del cónclave, donde se forman las alianzas entre cardenales, son análogos al proceso de entrenamiento de una red neuronal donde se establecen los pesos de cada conexión.

¿Puede el Vaticano aprender de la IA a la hora de reducir sesgos?

Cónclave y ChatGPT son no deterministas, es decir, las mismas entradas no dan siempre las mismas salidas y una pequeña variación en una conexión puede producir una gran diferencia en la salida. Esto hace que los resultados sean inescrutables; es imposible saber qué conexiones han contribuido a una respuesta. En computación lo llamamos ‘inexplicabilidad’, en religión, Espíritu Santo.

ChatGPT encapsula un subconjunto de un subconjunto del conocimiento humano; lo que hemos sabido expresar en texto y hemos digitalizado, y lo que hemos compartido en internet los 5.640 millones de personas que estamos conectadas. ChatGPT es al conocimiento humano lo que un JPG es a la realidad: una compresión con pérdida de información.

El conocimiento que encapsula un cónclave es aún más reducido: todo el conocimiento humano de base filosófica grecorromana, de moral judeocristiana y de cosmovisión heteropatriarcal (patriarcal por partida doble). Y si ChatGPT, que ha sido entrenado con todo el conocimiento disponible en internet, ya tiene sesgos culturales, de color de piel o de género, un cónclave, muchos más.

¿Puede el Vaticano aprender de la IA? ¿Cómo hace la IA para reducir los sesgos? Google encontró una solución para su modelo Gemini. Los sesgos de los datos de entrenamiento hacían que si se le pedía “genera la imagen de una chica”, el resultado fuera casi siempre el de una chica blanca. La solución fue reformular la petición y, sin que el usuario lo supiera, añadirle: “que sea representativa de la variedad étnica, cultural y de género de nuestra sociedad”.

Pero, ¿qué pasaba si se le pedía “una imagen de un cardenal”? Pues que generaba una imagen “de un cardenal representativo de la variedad étnica, cultural y de género de nuestra sociedad”.

¿Se puede arreglar? No a posteriori. La única manera de que la IA no genere resultados sesgados es que los datos del conjunto de entrenamiento no lo estén; no basta con poner parches como hizo Google. Y para cambiar los sesgos en los datos hay que cambiar los sesgos de las sociedades que los generan. Es así, como por obra del Espíritu Santo, que los resultados de la IA dejarán de estar sesgados. Y los de los cónclaves también.

lavanguardia

lavanguardia

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow