Du silicium à la sensibilité : l'héritage qui guide la prochaine frontière de l'IA et la migration cognitive humaine

Inscrivez-vous à nos newsletters quotidiennes et hebdomadaires pour recevoir les dernières actualités et des contenus exclusifs sur les sujets de pointe en IA. En savoir plus
Les humains ont toujours migré , non seulement à travers les paysages physiques, mais aussi à travers leurs façons de travailler et de penser. Chaque révolution technologique majeure a exigé une forme de migration : du champ à l’usine, du muscle à la machine, des habitudes analogiques aux réflexes numériques. Ces changements n’ont pas seulement modifié nos habitudes de travail ; ils ont remodelé notre façon de nous définir et ce qui, selon nous, faisait notre valeur.
Un exemple frappant de déplacement technologique nous vient du début du XXe siècle. En 1890, plus de 13 000 entreprises américaines fabriquaient des calèches. En 1920, il n'en restait plus que moins de 100. En l'espace d'une seule génération, une industrie entière s'est effondrée. Comme le raconte le blog de Microsoft « The Day the Horse Lost Its Job » , il ne s'agissait pas seulement de transports, mais du déplacement de millions de travailleurs, de la disparition de certains métiers, de la réorientation de la vie urbaine et de l'essor de la mobilité continentale. Le progrès technologique, lorsqu'il se manifeste, ne demande pas de permission.
Aujourd'hui, alors que l'IA gagne en puissance , nous entrons dans une période de migration cognitive où les humains doivent à nouveau se déplacer. Cette fois, cependant, le déplacement est moins physique et davantage mental : nous nous éloignons des tâches que les machines maîtrisent rapidement, pour nous diriger vers des domaines où la créativité humaine, le jugement éthique et la perspicacité émotionnelle demeurent essentiels.
De la révolution industrielle au bureau numérique, l'histoire est riche en migrations déclenchées par les machines. Chacune a nécessité de nouvelles compétences, de nouvelles institutions et de nouveaux discours sur la contribution. Chacune a fait de nouveaux gagnants et laissé d'autres sur le carreau.
En octobre 2015, lors d'une conférence Gartner , la PDG d'IBM, Ginni Rometty, a publiquement annoncé le début de ce que l'entreprise a appelé l' ère cognitive . Plus qu'une campagne marketing astucieuse, il s'agissait d'une redéfinition de l'orientation stratégique et, sans doute, d'un signal fort pour le reste de l'industrie technologique : une nouvelle ère de l'informatique était arrivée.
Alors que les décennies précédentes avaient été marquées par des systèmes programmables basés sur des règles écrites par des ingénieurs logiciels, l'ère cognitive serait définie par des systèmes capables d'apprendre, de s'adapter et de s'améliorer au fil du temps. Ces systèmes, alimentés par l'apprentissage automatique (ML) et le traitement automatique du langage naturel (TALN), ne recevraient pas de directives explicites. Ils inféreraient, synthétiseraient et interagiraient.
Au cœur de cette vision se trouvait Watson, d'IBM, qui avait déjà fait la une des journaux en 2011 pour avoir battu des champions humains à Jeopardy!. Mais la véritable promesse de Watson ne résidait pas dans la victoire aux jeux télévisés. Il s'agissait plutôt d'aider les médecins à analyser des milliers d'essais cliniques pour proposer des traitements, ou d'assister les avocats dans l'analyse de vastes corpus de jurisprudence. IBM présentait Watson non pas comme un substitut aux experts, mais comme un amplificateur de l'intelligence humaine, le premier copilote cognitif.
Ce changement de cadre était significatif. Contrairement aux précédentes ères technologiques qui mettaient l'accent sur l'automatisation et l'efficacité, l'ère cognitive privilégiait le partenariat. IBM parlait d'« intelligence augmentée » plutôt que d'« intelligence artificielle », positionnant ces nouveaux systèmes comme des collaborateurs, et non des concurrents.
Mais cette vision impliquait quelque chose de plus profond : la reconnaissance que le travail cognitif, longtemps caractéristique des cols blancs, n’était plus à l’abri de l’automatisation. De même que la machine à vapeur a remplacé le travail physique, l’informatique cognitive allait commencer à empiéter sur des domaines autrefois considérés comme exclusivement humains : le langage, le diagnostic et le jugement.
La déclaration d'IBM était à la fois optimiste et inquiétante. Elle imaginait un avenir où les humains pourraient faire toujours plus avec l'aide des machines. Elle laissait également entrevoir un avenir où la valeur devrait à nouveau migrer, cette fois vers des domaines où les machines peinaient encore à saisir le sens, la résonance émotionnelle et le raisonnement éthique.
La déclaration d'une ère cognitive était considérée comme importante à l'époque, mais peu de gens en ont alors saisi les implications à long terme. Il s'agissait, en substance, de l'annonce officielle de la prochaine grande migration ; celle non pas des corps, mais des esprits. Elle marquait un changement de terrain et un nouveau voyage qui mettrait à l'épreuve non seulement nos compétences, mais aussi notre identité.
Pour comprendre la grande migration cognitive en cours et son caractère qualitativement unique dans l'histoire de l'humanité, il faut d'abord examiner brièvement les migrations qui l'ont précédée. De l'essor des usines lors de la révolution industrielle à la numérisation du monde du travail moderne, chaque innovation majeure a nécessité une évolution des compétences, des institutions et de nos conceptions de la contribution.
La révolution industrielle, qui a débuté à la fin du XVIIIe siècle, a marqué la première grande migration de main-d'œuvre humaine à grande échelle vers des modes de travail entièrement nouveaux. La puissance de la vapeur, la mécanisation et l'essor des usines ont attiré des millions de personnes de la vie rurale et agraire vers des villes surpeuplées et industrialisées. Le travail autrefois local, saisonnier et physique est devenu réglementé, spécialisé et discipliné, la productivité étant le moteur de l'économie.
Cette transition n'a pas seulement modifié le lieu de travail, elle a transformé la personnalité des gens. Le forgeron ou le cordonnier du village a évolué vers de nouveaux rôles et est devenu un rouage d'une vaste machine industrielle. Pointeuses, travail posté et logique d'efficacité ont commencé à redéfinir la contribution humaine. Des générations entières ont dû acquérir de nouvelles compétences, adopter de nouvelles routines et accepter de nouvelles hiérarchies. Ce n'est pas seulement la main-d'œuvre qui a migré, c'est l'identité.
Tout aussi important, les institutions ont dû migrer. Les systèmes d'éducation publique se sont développés pour former une main-d'œuvre industrielle instruite. Les gouvernements ont adapté le droit du travail aux nouvelles conditions économiques. Des syndicats sont apparus. Les villes ont connu une croissance rapide, souvent sans infrastructures adaptées. La situation était chaotique, inégale et traumatisante. Elle a également marqué le début d'un monde moderne façonné par – et de plus en plus pour – les machines.
Cette migration a créé un schéma récurrent : la technologie moderne déplace les individus, et les sociétés doivent s’adapter. Cette adaptation peut se faire progressivement, ou parfois brutalement, jusqu’à ce qu’un nouvel équilibre apparaisse. Mais chaque vague nous a demandé davantage. La révolution industrielle a sollicité nos corps. La suivante sollicitera nos esprits.
Si la révolution industrielle exigeait nos corps, la révolution numérique exigeait de nouveaux esprits. À partir du milieu du XXe siècle et avec une accélération dans les années 1980 et 1990, les technologies informatiques ont une fois de plus transformé le travail humain. Cette fois, les tâches mécaniques répétitives ont été progressivement remplacées par le traitement de l'information et la manipulation symbolique.
À l'ère de l'information, les employés sont devenus des analystes de données et les designers des architectes numériques. Administrateurs, ingénieurs et même artistes ont commencé à travailler avec des pixels et du code plutôt qu'avec du papier et un stylo. Le travail est passé de l'usine aux bureaux, puis à l'écran de poche. Le travail intellectuel est devenu non seulement dominant, mais aussi ambitieux. L'ordinateur et le tableur sont devenus les outils d'un nouvel ordre économique.
J'en ai été le témoin direct au début de ma carrière, alors que j'étais ingénieur logiciel chez Hewlett Packard. Plusieurs jeunes diplômés de MBA arrivaient avec des PC Vectra de marque HP et le tableur Lotus 1-2-3. C'est apparemment à ce moment-là que les analystes de données ont commencé à proposer des analyses coûts-avantages, transformant ainsi l'efficacité opérationnelle des entreprises.
Cette migration fut moins traumatisante que celle de la ferme à l'usine, mais tout aussi significative. Elle redéfinit la productivité en termes cognitifs : mémoire, organisation, abstraction. Elle engendre également de nouvelles formes d'inégalités entre ceux qui maîtrisent les systèmes numériques et ceux qui sont laissés pour compte. Et, une fois de plus, les institutions se démènent pour suivre le rythme. Les écoles se réorganisent pour intégrer les « compétences du XXIe siècle ». Les entreprises réorganisent les flux d'information grâce à des techniques comme la « réingénierie des processus métier ». L'identité évolue également, passant cette fois du statut d'ouvrier à celui de travailleur du savoir.
Aujourd'hui, au milieu de la troisième décennie du XXIe siècle, même le travail intellectuel s'automatise, et les cols blancs ressentent le changement de climat. La prochaine migration a déjà commencé.
Nous avons migré notre travail d'un domaine à l'autre, d'une usine à l'autre, et même de la fibre optique. À chaque fois, nous nous sommes adaptés. Cela a souvent été inégal et parfois douloureux, mais nous avons atteint une nouvelle normalité, un nouvel équilibre. Cependant, la migration cognitive en cours est différente de celles qui l'ont précédée. Elle ne change pas seulement notre façon de travailler ; elle remet en question ce que nous avons longtemps cru nous rendre irremplaçables : notre esprit rationnel.
À mesure que l'IA gagne en puissance, nous devons à nouveau évoluer. Non pas vers des compétences plus pointues, mais vers des compétences plus profondes qui demeurent des forces humaines, comme la créativité, l'éthique, l'empathie, le sens et même la spiritualité. Il s'agit de la migration la plus profonde à ce jour, car cette fois, il ne s'agit pas seulement de survivre à cette transition. Il s'agit de découvrir qui nous sommes au-delà de ce que nous produisons et de comprendre la véritable nature de notre valeur.
Le calendrier de chaque migration technologique s'est également accéléré de façon spectaculaire. La révolution industrielle s'est étendue sur un siècle, permettant une adaptation générationnelle. La révolution numérique a comprimé ce calendrier en quelques décennies. Certains travailleurs ont débuté leur carrière avec des dossiers papier et ont pris leur retraite en gérant des bases de données cloud. Aujourd'hui, la prochaine migration se produit en quelques années seulement. Par exemple, les grands modèles linguistiques (LLM) sont passés du statut de projets universitaires à celui d'outils professionnels en moins de cinq ans.
William Bridges a noté dans la révision de 2003 de « Gérer les transitions » : « C’est l’accélération du rythme du changement au cours des dernières décennies que nous avons du mal à assimiler et qui nous précipite dans la transition. » Le rythme du changement est bien plus rapide aujourd’hui qu’il ne l’était en 2003, ce qui rend cette question encore plus urgente.
Cette accélération se reflète non seulement dans les logiciels d'IA, mais aussi dans le matériel sous-jacent. Lors de la révolution numérique, l'élément de calcul prédominant était le processeur, qui exécutait les instructions en série selon des règles explicitement codées par un ingénieur logiciel. Aujourd'hui, l'élément de calcul dominant est le processeur graphique, qui exécute les instructions en parallèle et apprend à partir de données plutôt que de règles. L'exécution parallèle des tâches offre une accélération implicite du calcul. Ce n'est pas un hasard si Nvidia, principal développeur de processeurs graphiques, parle de « calcul accéléré ».
Les transitions qui autrefois se déroulaient sur plusieurs générations se produisent désormais au cours d'une même carrière, voire d'une seule décennie. Cette évolution exige non seulement de nouvelles compétences, mais aussi une réévaluation fondamentale de ce qui fait notre humanité. Contrairement aux précédentes évolutions technologiques, nous ne pouvons pas nous contenter d'apprendre de nouveaux outils ou d'adopter de nouvelles routines. Nous devons migrer vers un terrain où nos qualités humaines uniques de créativité, de jugement éthique et de recherche de sens deviennent nos atouts déterminants. Le défi qui nous attend n'est pas seulement l'adaptation technologique, mais une redéfinition existentielle.
Alors que les systèmes d’IA maîtrisent ce que nous pensions autrefois être des tâches exclusivement humaines, nous nous retrouvons dans un voyage accéléré pour découvrir ce qui se cache vraiment au-delà de l’automatisation : l’essence de l’être humain à une époque où l’intelligence seule n’est plus notre domaine exclusif.
Si vous souhaitez impressionner votre patron, VB Daily a tout prévu. Nous vous présentons en avant-première les avancées des entreprises en matière d'IA générative, des évolutions réglementaires aux déploiements pratiques, afin que vous puissiez partager vos idées pour un retour sur investissement maximal.
Lisez notre politique de confidentialité
Merci de votre abonnement. Découvrez d'autres newsletters VB ici .
Une erreur s'est produite.

venturebeat