← Back to all articles

Quitter son emploi, rester productif

Vladimir Dietrich · July 6, 2020 ·4 min read

L'essence des dérivées et des intégrales est la notion de limite. Lorsque la limite tend vers l'infini, ou vers zéro, nous inventons la notion de dérivées et d'intégrales. Par exemple, une circonférence est un polygone avec des côtés "infinis" de longueur tendant vers zéro, chacun. À la limite, avec le nombre de côtés tendant vers l'infini et la longueur de chaque côté tendant vers zéro, nous avons une circonférence parfaite.

J'ai forcé la barre en mathématiques, mais je voulais dire quelque chose de plus simple, en y repensant : il est utile de penser à l'"exagération" — la limite — d'une situation, parfois. C'est un bon exemple. Pour aider à comprendre "notre ennemi", il peut être utile de connaître sa "taille maximale", sa limite.

Quelle est la taille maximale de l'ennemi qu'est l'automatisation qui vole des emplois humains ?

J'imagine que sa limite infinie, maximale, est lorsque l'automatisation réussit théoriquement à voler tout et n'importe quel emploi humain.

Que diable apprenons-nous lorsque nous faisons des mesures théoriques, même inatteignables, comme celle-ci ?

D'emblée, nous apprenons la taille maximale théorique : aucun humain ne travaille, les machines font tout.

Que faire de cette limite ? Danser avec elle. Entrer dans la danse.

Mourons-nous dans cette limite ? Je crois que non, même si c'est une bonne question. Ce type de question démontre plus de peur de l'interlocuteur — nous, l'humanité — que de prévision sophistiquée.

Les machines qui travaillent me semblent avoir plus à voir avec : des laitues plantées, nourries, récoltées, distribuées. Idem pour les voitures Mercedes Benz. La matière première est produite, regroupée, assemblée, distribuée. Aussi les jouets. D'autres aliments : huîtres, steaks, petits pois. Couvertures, vêtements.

Où est la mort humaine dans cette limite, dans ce scénario maximal théorique ?

Pas dans le manque de production.

Dans la distribution ? Dans le terrible dictateur qui va laisser tout le monde dépérir (finira-t-il seul avec dix blondes ?)

Je sais : peut-être dans la transition pathétique typiquement humaine — avec des injustices, des morts, des mésaventures ?

Naviguer dans la limite maximale "nettoie" l'esprit du désordre de penser à des scénarios intermédiaires.

Il n'y a pas de réponse exacte sur l'avenir, mais cela nettoie l'esprit.

Penser au scénario maximal simplifie l'esprit. Cela n'apporte pas de réponse exacte, mais enlève beaucoup de désordre du chemin.

Cela aide, à la fin de toute la pensée, à comprendre le chemin que nous pouvons parcourir.

Bel sujet, passionnant, à mon avis particulier. Beau débat, en cours, loin de la fin.

L'intelligence artificielle, nous pouvons la placer à un niveau légèrement — pas beaucoup — différent de "l'automatisation". Bien sûr, l'intelligence artificielle étant une espèce du genre plus large, l'automatisation. Alors nous pouvons placer "programmer" comme une espèce différente d'automatisation en comparaison avec l'espèce d'automatisation que nous appelons intelligence artificielle.

Maintenant, sans plus tarder, regardez comme c'est brillant :

L'intelligence artificielle prend l'emploi de qui ?

Du programmeur lui-même !

L'intelligence artificielle en réalité, alors, prend l'emploi de tout ce que l'automatisation prend déjà, sauf qu'elle prend aussi l'emploi du programmeur lui-même !

L'intelligence artificielle a de moins en moins de "ifs, loops, et un programmeur ajoutant des fonctions et des codes".

L'intelligence artificielle a été créée avec cette belle capacité : elle-même perfectionne ses "réseaux neuronaux".

Nous avons seulement besoin d'un "stagiaire" — de plus en plus, vraiment, seulement un stagiaire sans expérience — pour alimenter chaque énorme, mais encore vierge, réseau neuronal, avec des données, des données, encore plus de données et encore plus de données.

Beaucoup aiment recevoir des données avec des réponses correctes — plusieurs données — pour se calibrer. Mais elles font la calibration de plus en plus seules. Nous sommes de plus en plus automatisés la propre calibration de chaque type d'intelligence artificielle.

En réalité, bientôt, même "stagiaire" ne sera pas nécessaire. Il suffira d'informer l'objectif (quelles données avec quelles réponses "avaler") qu'une intelligence artificielle saura avaler de nouvelles données et régurgiter des réponses plus probables. Quand elle est bien calibrée, elle informe plus de 90%, plus de 99% même, de chance d'être correcte.

Par exemple, cette image de poumon a-t-elle un cancer ? 99% de réussite, plus précise que le meilleur médecin. Etc.

Alors même le programmeur ne reste pas quand les réseaux neuronaux apprennent à se calibrer seuls, il suffit d'avaler des données — des données, d'ailleurs, qui seront déjà dans le cloud, même, à côté d'elle. Même le stagiaire "pour insérer la disquette avec des données" n'est plus nécessaire.

Il est utile d'avoir des "mantras", des phrases courtes, pour nous aider à comprendre de nouvelles situations.

Je dirais, à propos de ce débat fertile :

Les emplois peuvent même disparaître ("les emplois changent" me semble l'euphémisme d'une mère disant à sa fille enceinte : "ça ne fait pas mal l'accouchement").

La différence n'est pas dans la finitude de l'emploi.

La différence est dans la conséquence.

Jusqu'en 1900, la fin d'un emploi signifiait la fin de la production.

Ce n'est pas ce qui se passe avec l'automatisation.

L'emploi disparaît, la production reste.

Bon mantra, celui-ci, d'ailleurs.

"L'emploi disparaît, la production reste".

Que faire quand, ou si, ou pendant la transition, où "L'emploi disparaît, la production reste." ?

"L'emploi disparaît, la production reste."

Mauvais ? Bon ? Transition folle ? Courons-nous tous ? Canapé et mal de dos pour tous ? Qui gagne plus de Mercedes Benz et de laitues automatiquement produites (donc, sans emploi) que les autres ?