# Le pouvoir des machines
<p style="text-align: right;font-style:oblique">! <a data-href="Food for thought" href="https://legerement-serieux.ch/Fiches/PsychoPhilo/food+for+thought" class="internal-link" target="_blank" rel="noopener">Food for thought</a> !</p>
Les machines, même animées par de l’iA, n’auront jamais que le pouvoir que nous leur donnerons. Je ne pense pas du tout que le problème soit que les machines « prennent le pouvoir ». Le problème, c’est que certains humains soient assez stupides pour s’en remettre à des machines et leurs donnent un pouvoir qu’*elles ne devraient pas avoir*, qu’elles ne devraient *jamais* avoir.
Je pense que c’est un **sérieux problème** et que nous y sommes déjà confrontés.
Les [[algorithmes sophistiqués]] sont d’extraordinaires **aides** à la décision, mais on ne devrait pas les laisser prendre certaines décisions à la place d’un humain.
Voici quelques exemples où il est problématique de laisser une machine décider à la place des humains :
* La **conduite de véhicules**.
* Dans l’aviation, il y a déjà eu des accidents liés à des erreurs logicielles ou autres défaillances de machines que l’on pensait « intelligentes ». On parle d’accidents qui ont causé des centaines de morts.
* Sur la route également : il y a des accidents mortels liés à la conduite dite « autonome ». Bien sûr, certains diront « il y a aussi des accidents mortels quand c’est un humain qui conduit ». À quoi je réponds : oui, il y a des humains qui commettent des imprudences ou des conneries. Alors, ce qu’il faut faire, c’est faire tout ce qu’on peut pour qu’il y ait le moins possible d’être humains imprudents ou qui commenttent de conneries qui conduisent des véhicules. Laisser *tous* les véhicules être conduits par des machines manquant de discernement, plus ou moins aveugles ^[Je fais ici allusion aux capteurs auxquels les logiciels de conduite autonome doivent se fier. Peu de personnes savent qu’Elon Musk, ce grand criminel, a décidé que les *Tesla* n’auaient pas de radars et ne se fieraient qu’aux seules caméras optiques, contre l’avis des ingénieurs et en rupture totale avec ce que font tous les autres constructeurs automobiles. Il y a déjà eu des accidents mortels dûs au fait que les caméras et les logiciels n’ont pas vus des obstacles qui auraient pu être détectés par des radars.] et plus ou moins bien programmées, c’est une énorme imprudence. Je ne monte pas dans une voiture conduite par un humain en état d’ébriété. Je pense que des logiciels qui conduisent ne valent guère mieux et je ne voit pas cela changer dans les 10 prochaines années.
* La **sélection de personnes**. Qu’on laisse un algorithme opérer un *pré-tri* parmi les centaines de CV de candidats à un poste, cela peut se concevoir. Mais laisser un *algorithme* choisir **une** personne parmi des candidats, je trouve cela absolument inadmissible. Pourquoi ? À cause des critères que l’algorithme utilise. S’agissant d’humain, on est révolté et l’on refuse les critères liés au sexe, au genre, à l’âge, à l’ethnicité, à la beauté, à la taille, au poids, à l’origine sociale, etc. Qu’est-ce qui garantit que les algorithmes n’utilisent pas de tels critères ? La vraie réponse est : RIEN, absolument RIEN ne garantit que les algorithmes n’utilisent pas de tels critères ! On peut même être absolument certain que les algorithmes vont utiliser des critères encore bien plus discutables que ceux que je viens de mentionner. À partir du moment où on leur fournit des données sur les goûts supposés des personnes, leurs opinions supposées, leurs croyances supposées, leurs habitudes d’achats, leurs relations sociales, etc., n’arrive-t-on pas dans un arbitraire bien pire que celui des humains ? Des sélections basées sur ces critères font passer pour un détail une sélection basée sur l’âge !
* La **sécurité**. Les algorithmes de *reconnaissance faciale* sont déjà problématiques quand il s’agit d’interpeler un soit-disant suspect. Mais si on laisse un *algorithme sophistiqué* décider s’il faut faire feu sur une personne en se basant sur la reconnaissance faciale ou « l’analyse du comportement », ça fait encore plus froid dans le dos, n’est-ce pas ? Je vous laisse vous renseigner sur les *robots tueurs* ou « systèmes d’armes léthales autonomes ».
* La **justice**. Est-ce encore de la justice, si on laisse un algorithme décider du sort d’une personne ? Je ne le pense pas. Il existe déjà des logiciels qui calculent des « degrés de dangerosité » d’une personne ou des « risques de récidive », etc. Aide à la décision ? D’accord. Substitution à l’appréciation humaine ? Pas d’accord.
* La **santé**. Ce que j’ai mentionné plus haut à propos de la *sélection des personnes* s’applique ici avec encore plus d’acuité quant à l’éthique et à la morale. On en est déjà au point où l’on peut laisser des algorithmes décider si une personne a droit à des soins, à quels soins, à quel traitement, par quel médecin, pour combien de temps, etc. Qui nous garantit que ce ne seront que des critères strictement médicaux qui seront appliqués ? À nouveau : RIEN, absolument RIEN. Rien ne nous garantit que des critères tels que le revenu d’une personne, ses croyances ou son ethnicité ne seront pas appliqués. Si quelqu’un — ou une société — veut faire du profit, il peut même pousser la malhonnêteté intellectuelle jusqu’à faire de l’ethnicité et du niveau de revenu un critère médical !
 
<p style="text-align: center;"><a href="https://dr-spinnler.ch"><img src="https://dr-spinnler.ch/myfiles/logos/Olivier-Spinnler.png" class= "signature"/></a></p>
<p style="text-align: center; font-style: italic;">le 4 juillet 2025
</p>
 
----------------------------------------------
[[réflexions autour de l’intelligence artificielle]]
#iA