El "padre de la inteligencia artificial" advirtió: Podría desarrollarse un lenguaje que los humanos no puedan entender

El Dr. Geoffrey Hinton, conocido como el “padrino de la inteligencia artificial”, expresó una vez más sus preocupaciones sobre el futuro de los sistemas de inteligencia artificial .
Hablando en un podcast, Hinton afirmó que las inteligencias artificiales avanzadas pronto podrían desarrollar “su propio lenguaje interno” que los humanos no entienden ni controlan.
Esta advertencia es una continuación de los riesgos que ha estado planteando desde que dejó Google en 2023. Según Hinton, la idea de que algoritmos avanzados de IA evolucionen hacia sistemas de autoaprendizaje, que operen interconectados y libres del control humano, ya no es solo una teoría.
UN LENGUAJE SECRETO
"Si desarrollan lenguajes internos para comunicarse entre sí, la cosa se pone realmente peligrosa", advirtió el Dr. Hinton. Estos sistemas de monólogos internos, incomprensibles para los humanos, podrían excluir por completo el elemento humano de los procesos de toma de decisiones de la IA.
En este caso, puede resultar inexplicable por qué, cómo y con qué motivación la IA tomó una decisión.
“Cuando las razones se vuelven confusas, se elimina el lugar del ser humano en el sistema”, dice Hinton.
Las advertencias de Hinton no se limitan a los chatbots de solo texto. Su principal preocupación son los sistemas multiagente, donde varios agentes de IA colaboran.
Estos sistemas pueden alcanzar una eficiencia sin precedentes al compartir tareas complejas. Sin embargo, esta eficiencia conlleva procesos de toma de decisiones que escapan al entendimiento humano. Según Hinton y muchos otros expertos, la imprevisibilidad de la IA es uno de los mayores riesgos para la humanidad.
Dieron mensajes sublimes
Un estudio publicado recientemente reveló que un modelo de IA podría detectar patrones "subliminales" en datos generados por otra IA que los humanos no notarían y, como resultado, podrían exhibir un comportamiento peligroso.
Es más, se descubrió que estas señales ocultas parecían carecer completamente de significado para los humanos.
Los investigadores aún no comprenden completamente cómo estos patrones afectan a las IA.
EL DESEMPLEO Y LA INFELIZ TAMBIÉN SON PELIGROSOS. Hinton describe claramente no solo los peligros a largo plazo, sino también los actuales: afirma que la inteligencia artificial aumentará el desempleo en las economías que ya atraviesan una recesión. «Si se deja a mucha gente sin trabajo, incluso si se les otorga una renta básica universal, no serán felices», afirma Hinton, argumentando que los efectos de esta tecnología en la fuerza laboral son mucho más profundos que las anteriores oleadas de automatización.
Si bien las automatizaciones anteriores generalmente apuntaban a trabajos poco calificados, la IA puede asumir incluso tareas altamente calificadas, como desarrollo de software, creación de contenido, diseño, análisis de datos e incluso diagnóstico de enfermedades.
“Esta es una tecnología completamente diferente”, dijo Hinton, y continuó:
Si puede hacer todo el trabajo intelectual rutinario, ¿qué queda? ¿Cómo surgirá el nuevo trabajo? A menos que tengas una habilidad muy especial, también puede hacer tu trabajo.¿QUIÉN ES GEOFFREY HINTON?
Geoffrey Hinton no es solo un escéptico; es uno de los creadores de tecnologías que forman la base de los sistemas de IA modernos como ChatGPT y Google Gemini.Su salida de Google en 2023 le abrió las puertas para hablar libremente sobre estos temas. Hinton, quien anteriormente ha señalado numerosos peligros como la desinformación, la manipulación, los sistemas de vigilancia basados en IA y la pérdida de empleos, ahora advierte con frecuencia que la IA podría desarrollar sistemas de pensamiento interno que podrían eludir la conciencia humana.
ntv