L’intelligence artificielle (IA), en fait humaine avant d’être artificielle, est un nouveau pas dans la révolution scientifique et technique dans le monde. Elle est certes incontournable pour toutes les formations sociales (FS), dans une «économie-monde», malgré les séquelles et les «miasmes» qui persistent et se manifestent aujourd’hui sous forme de mesures protectionnistes, notamment aux Etats Unis d’Amérique (EUA) vis-à-vis des autres Etats.
Néanmoins, et de manière générale, la prudence s’impose. Le progrès scientifique et technique, à travers l’histoire de l’humanité, n’a pas eu toujours et uniquement des impacts positifs. L’exemple le plus symbolique, souvent cité, est l’invention de la bombe atomique et son utilisation à Hiroshima et à Nagasaki, en 1945. Le débat sur les rapports entre «le savant et le politique» est donc toujours d’actualité, au moment où l’IA est utilisée dans des conflits armés tels que la guerre génocidaire menée depuis presque deux ans par Israël en Palestine. Comme elle peut être inversement utilisée pour l’amélioration qualitative des conditions de vie humaine, notamment dans le domaine de la santé/médecine, ou bien pour faire face aux grands défis du 21ème siècle, en particulier la lutte contre la pauvreté et les inégalités et contre le réchauffement climatique et les conséquences qui en sont inhérentes. La prudence s’impose, car l’IA a aussi tendance à être utilisée, dans des systèmes politiques non démocratiques, dans un objectif de contrôle et de manipulation des populations et de restriction des libertés individuelles, voire de la vie privée.
Dans ce sens, l’œuvre de Georges Orwell, «1984», a d’ailleurs été fortement prémonitoire. Ce dilemme ou paradoxe démontre à quel point les sciences et les techniques en général, et notamment l’IA qui en dérive, ne constituent pas une fin en soi. L’éthique est donc un préalable indispensable et incontournable afin de renforcer la visibilité, la transparence et la protection de la vie et de la dignité humaine dans un domaine où les enjeux sont souvent complexes et de nature stratégique. Le danger du risque de déshumanisation est réel mais non inéluctable. La fameuse phrase de Rabelais, «Science sans conscience n’est que ruine de l’âme», prononcée au 16ème siècle, avant même le «siècle des lumières», continue à résonner dans nos oreilles pour nous rappeler l’importance de la prudence et de la vigilance.
Les valeurs morales universelles ont permis à l’«individu primitif» de «sortir de son animalité», d’apprendre à maitriser ses instincts primaires, pour entamer une voie pouvant mener vers un idéal, au sens hégélien du terme. L’humain, serait-il aujourd’hui à mi-chemin ? Ne risque-t-il pas une rechute dans son «animalité» ?
Lire aussi | Le Maroc se dirige vers le développement d’une plateforme nationale de l’IA responsable
Certes, l’évolution des FS n’a jamais été unilinéaire. Le risque de sombrer dans de nouvelles barbaries n’est pas à écarter. C’est dire que l’IA, et les sciences et techniques en général, ont plus que jamais besoin d’une approche ouverte et multidisciplinaire, intégrant les sciences humaines et sociales, pour garantir un équilibre grâce à une «boussole morale humaniste et universelle», indispensable en ces temps d’incertitude croissante. En effet, l’IA n’est pas une fin en soi. Elle est et sera toujours un moyen qui sera orienté, développé, et concrètement mobilisé de par des objectifs explicitement ou implicitement définis. L’IA concerne tous les domaines. Elle est de nature transversale. Aux collectivités humaines de débattre démocratiquement et sagement l’usage et les finalités possibles.
Elle peut être conçue et appliquée dans une perspective d’augmentation de la productivité, de réduction des coûts et d’augmentation des bénéfices au profit d’une minorité qui possède et décide, comme elle peut l’être pour l’amélioration des conditions de vie de tous les êtres humains, et dans le respect de tous les écosystèmes naturels. Elle peut l’être pour renforcer la puissance de celles et ceux qui dominent et protéger leurs intérêts, comme elle peut l’être pour entamer la construction de nouveaux rapports sociaux fondés sur la justice au sens le plus large du terme, sur la paix et sur la base du respect réciproque entre les humains et entre les peuples.
L’IA, en tant que nouvelle ressource, a donc besoin d’une stratégie bien définie et partagée au sein des collectivités humaines où elle est appelée à être appliquée, en vue de répondre à des besoins sociaux bien identifiés et démocratiquement définis. Certes, c’est un terrain nouveau et encore en prospection. Néanmoins, les règles de prudence et surtout celles afférentes à l’éthique, loin de constituer un frein, sont au contraire des «baliseurs» nécessaires qui devraient permettre à toute FS de s’adapter et d’évoluer, de manière dynamique et créative, tout en gardant le «cap».
1. Une petite histoire de l’intelligence artificielle
L’intelligence artificielle (IA), produite par l’intelligence humaine, n’est pas tombée du ciel. Elle a été créée par les humains et elle devrait transformer radicalement ses propres créateurs. On parle déjà de «révolution numérique», ou tout au moins de «transition numérique», en tant que «voyage en cours vers un futur», qui, en fait, a tendance à s’accélérer. L’espoir est que ce voyage ne soit pas entrepris vers l’inconnu.
Lire aussi | Menaces de l’intelligence artificielle : la fascination et l’inquiétude [Par Charaf Louhmadi]
En 1950, à l’apogée de l’ère industrielle (trente glorieuses en Europe, et propagation de l’idéologie rostowienne dans les pays du Sud), symbolisée notamment par l’atome ou nucléaire, Alan Turing a créé la notion d’informatique. Et 6 ans plus tard, lors de la Conférence de Dartmouth College, apparait la première expression «intelligence artificielle». Dix ans plus tard, a été créé «Eliza», premier «agent conversationnel à visée thérapeutique», programme capable de «discuter» en «langage naturel». Et en 1970, commencent à être fabriqués les premiers micro-processeurs, en tant que «systèmes-experts», c’est-à-dire des programmes capables de résoudre des problèmes ou de répondre à des questions, en effectuant, un raisonnement à partir de règles connues/prédéfinies. La décennie 1980 sera celle de l’apprentissage automatique sur la base de réseaux de neurones artificiels à plusieurs couches. En 1997, DeepBlue, le superordinateur d’IBM, est capable de jouer aux échecs via des règles de combinatoire. «Mais il n’emportera aucun prix dans le monde». La première décennie du 21ème siècle sera marquée par le début de l’ère du big data. Les grandes quantités de données sont stockées et accessibles sur Internet. Leur transmission est aussi facilitée. C’est le point de départ de grands progrès techniques dans le domaine de l’informatique.
Mais, jusque là, ces progrès ont été de nature cumulative et quantitative. Ce n’est qu’en 2010, que va émerger une «IA prédictive» ainsi que l’«apprentissage profond» (deep learning) : les processus de cartes graphiques sont utilisés pour accélérer les calculs des algorithmes d’apprentissage. La reconnaissance d’image est possible en 2012, grâce à l’IA basée sur l’utilisation de 16 000 processus, permettant de reconnaitre pour la première fois des chats sur une vidéo. En 2014, sont développés des «réseaux antagonistes génératifs» (GAN). Trois ans plus tard, les «grands modèles de langage» sont développés, après la description des «transformers» dans la référence publiée «Attention Is All You Need». L’année suivante, OpenAI dévoile, à quelques mois d’intervalle, GPT et GPT-2, deux modèles s’appuyant sur des «transformers» combinés à un système d’«apprentissage automatique» utilisant des données non préalablement annotées.
En 2021, est créé GPT-3, entrainé sur bien plus de données (collectées sur Internet) que ses prédécesseurs. C’est la phase où l’accumulation quantitative permet d’entamer des transformations qualitatives. En effet, en 2022, apparait la première version de Dall-E, en tant que programme d’IA générative, capable de créer des images à partir des descriptions textuelles. Au mois de janvier 2023, OpenAI développe InstructGPT qui est une version de GPT-3, moins biaisée. Entre mai et juillet de la même année, d’autres modèles de langage plus puissants voient le jour, tels que OPT, Meta et Bloom. Janvier 2024, ChatGPT dépasse 100 millions d’utilisateurs. C’est le début d’une aube annonçant un nouveau monde en gestation qui n’est pas seulement de nature technique.
2. Vivre avec l’IA
L’IA est de plus en plus présente dans la vie quotidienne et dans presque tous les domaines. C’est notamment le cas du commerce électronique ou E-commerce. L’IA est basée sur le développement des «réseaux de neurones artificiels». Néanmoins, l’IA, en tout cas pour le moment, n’est ni sensée ni sensible. C’est un mode de calcul statistique et dynamique qui permet d’interagir et d’aboutir à des réponses probables à des requêtes. L’IA dépend donc étroitement des développeurs et des programmeurs. Elle est dans les applications et les logiciels, utilisée dans tous les secteurs, bouleversant ainsi les processus de collecte, d’analyse et de création. C’est notamment le cas de : l’enseignement, la formation, l’emploi, les banques, l’assurance, la politique et même la guerre. C’est un «rouleau compresseur». Loin d’être potentiellement et uniquement un processus de destruction massive, c’est aussi et surtout une «arme de transformation massive». D’après Paul Krugman, Prix Nobel en économie, il s’agirait d’une «révolution», créatrice de richesses, bien qu’appelée parfois à faire disparaitre de nombreux métiers, surtout les plus précaires et les plus féminisés. C’est déjà le cas des traducteurs/interprètes, des géomètres et topographes (…), tout au moins dans une bonne partie de leurs travaux, y compris la médecine (…). Et ce n’est que le début.
3. L’IA au service de l’éthique
L’IA peut devenir un outil stratégique et décisif dans la promotion de la transparence, surtout économique, et de l’éthique. Cette possibilité n’est pas automatique. Elle est étroitement conditionnée par la volonté politique des responsables et décideurs publics pour répondre à une attente sociétale actuellement prioritaire. Techniquement, l’IA offre un potentiel important grâce aux techniques de traçage, de dépistage, de traitement et de détection automatique des pratiques non éthiques, en particulier dans des domaines à haut risque en matière de corruption tels que les marchés publics. L’illustration pratique est possible à travers le traitement automatique et intelligent des déclarations de patrimoine par la Cour des Comptes. Ainsi, la variation du patrimoine x de monsieur X peut être générée automatiquement par un programme de suivi et de traitement des données contenues dans lesdites déclarations de patrimoine, et à partir des informations et données puisées dans plusieurs sources, selon une architecture informatique sécurisée.
Lire aussi | Intelligence Artificielle. Faire monter le Royaume en gamme
C’est aussi le cas des marchés publics, aux niveaux national et territorial, où les «abonnés» ou «chanceux» peuvent être aisément repérés. L’impact de l’application de l’IA, en matière de lutte contre la corruption, ne peut être que positif et multidimensionnel pour l’ensemble de la société (bien sûr cet impact ne peut être que négatif pour les bénéficiaires de l’opacité). L’impact positif direct doit se traduire par un renforcement de la concurrence loyale dans le domaine économique et par une dynamique réelle de croissance. L’impact indirect est la confiance des citoyens dans les institutions et l’émergence d’une culture entrepreneuriale nouvelle fondée sur la compétition et le mérite, en tant que valeur centrale.
En fait, nouvelles technologies de l’information et de la communication (NTIC) et IA concernent tous les domaines de la vie publique. Néanmoins, l’intelligence humaine, avant de devenir artificielle, doit être capable de définir les limites et les règles pour garantir et protéger les droits humains fondamentaux, notamment ceux inhérents à la vie privée et aux libertés individuelles.
4. IA et protection des données
Sans être «catastrophiste», des risques existent réellement et pèsent sur la vie privée des gens. L’IA peut être utilisée à mauvais escient. Il est possible d’en faire aisément sur le plan technique des outils d’hameçonnage et d’arnaque. L’intégration de l’IA dans des produits informatiques impliquant la navigation et l’échange sur Internet, rend le Chatbot extrêmement vulnérable aux attaques. «En se servant des réseaux sociaux ou par courrier électronique, il est possible d’envisager qu’un pirate dirige un utilisateur vers un site Web contenant des «prompts secrets». A la suite de cela, le «système d’IA trafiqué pourrait notamment permettre au pirate d’extraire des données de la carte de crédit de l’utilisateur» (MIT Technology Review, Malissa Heikkila, 3 avril 2023). Cette technique a probablement été utilisée dans les cas récents d’intrusion dans le système informatique de la CNSS et de celui de l’agence de la Conservation foncière. Arvin Narayanan, chercheur en informatique à l’université de Princeton confirme : «Pratiquement, n’importe quel texte sur le Web, pourvu qu’il ait été conçu dans ce but, peut déclencher des comportements malveillants de la part des robots qui tombent sur lui».
Faut-il pour autant s’inquiéter ? En fait, «pas de risque, pas d’action». Le vrai défi réside dans la production d’IA dédiée spécifiquement à la sécurisation des systèmes. Déjà apparaissent des usages abusifs à travers des «contenus falsifiés» ou «deepfakes». Certains outils vont même jusqu’à porter atteinte à la dignité des personnes (femmes «mises à nues» en un clic, en transposant leur visage sur un autre corps nu et anonyme…). Ces risques ne devraient pas pour autant occulter les nombreux avantages qu’offre potentiellement l’IA. C’est notamment le cas dans le domaine du sport où ont été conçus des coachs pour produire des services adaptés et répondre à des besoins spécifiques. L’autre risque moins évident a trait à une «déshumanisation» des rapports sociaux. Ce risque n’est pas nouveau. Il suffit de revoir les scènes du film de Charlie Chaplin, «Les temps modernes», décrivant l’impact du travail à la chaine sur le corps et sur le psychique des travailleurs, au début du 20ème siècle.
Avec l’IA, le rapport entre humains et robots ou «humanoïdes» expose à un risque d’assèchement progressif de la dimension affective, tout en renforçant la confusion entre le «travail vivant» des humains et celui de la machine sophistiquée grâce à l’IA. Yan Ya, dans Weixin (29 août 2023) résume bien cette situation: «De fait, avec l’irruption de l’IA dans notre quotidien, les interactions entre IA et êtres humains vont faire surgir de nouveaux problèmes éthiques». D’où la nécessaire intégration systématique de la conception de solutions éthiques dans le processus de production de l’IA. Ainsi, au-delà des aspects techniques, il est indispensable de veiller à l’instauration d’une démarche pluridisciplinaire afin de pouvoir anticiper et réduire au maximum les dérives possibles.
5. IA et travail humain
Comme toute révolution scientifique et technique dans le domaine industriel, l’IA va certainement faire disparaitre des métiers (en fait, c’est déjà le cas). Mais elle va contribuer à l’émergence de nouveaux métiers. Ce qui est sûr, c’est qu’il faut se préparer à ces transformations en revoyant radicalement les méthodes d’éducation/enseignement/recherche scientifique et formation. Ce n’est pas vraiment nouveau. La première révolution industrielle, au 19ème siècle, a été à l’origine de mutations profondes dans le monde du travail. Ainsi, dans les campagnes, le remplacement des travaux manuels par des machines agricoles a provoqué des vagues successives d’exode rural, un accroissement de la population urbaine, une reconversion des travailleurs agricoles dans le secteur de l’industrie (formation du prolétariat urbain), une concentration de la propriété foncière agricole (…). Cette évolution n’est ni linéaire ni identique pour l’ensemble des FS. Ainsi, dans les FS où le tissu économique industriel est faiblement développé, le processus a plutôt donné naissance à des bidonvilles et à un «lumpenprolétariat», survivant souvent grâce à des micro-activités informelles licites et/ou illicites. Aujourd’hui, la «fracture numérique» dans les pays du Sud peut être plus destructrice, compte tenu de la gravité des inégalités sociales.
Lire aussi | IA : Comment reconnaître une intelligence artificielle ?
Dans le domaine de la santé du travail, les nouveaux métiers de l’IA exposent fortement aux risques d’obésité, à défaut d’activités physiques/sportives. De même, l’usage excessif et prolongé des yeux/de la vue dans la lecture sur écran, expose à des risques dans le domaine ophtalmologique. Les travailleurs de l’IA passent plusieurs heures par jour devant leurs écrans pour «périmétrer» et sont souvent payés en fonction des résultats dans des «centres d’étiquetage des données». Ainsi, Image Net est la plus grande base de données de reconnaissance d’images du monde. «Derrière Image Net, il y a 50 000 étiqueteurs de données issus de 167 pays différents, à qui il aura fallu trois ans pour achever l’étiquetage de cette somme astronomique d’images» (Lin Shi, Weixin, 30 mars 2023).
Mais, cette fois-ci, l’impact des transformations scientifiques et techniques ne concerne pas seulement les travaux manuels et physiques. L’impact touche aussi, de plus en plus, le «travail intellectuel ou abstrait». Dans les universités, l’IA va certainement bouleverser les méthodes des travaux de recherche. Car comment distinguer ce qui a été produit par l’IA de ce qui a été produit de manière classique par un étudiant chercheur ? Si le plagiat est plus facile à détecter, tel n’est pas le cas des produits obtenus à partir de l’IA.
Par ailleurs, l’IA est appelée à transformer l’économie, et plus particulièrement le travail. Selon la banque Goldman Sachs, l’IA permet d’augmenter le taux de productivité de près de 1,5 point de pourcentage par an, soit plus de 15% sur une décennie. Qu’en est-il des salaires ? Vont-ils augmenter dans la même proportion ? Si ce n’est pas le cas, il s’agit donc d’un renforcement des inégalités, inhérent à la répartition plus inégalitaire de la plus value créée, en faveur du profit et donc du capital. Par ailleurs, ne faut-il pas craindre un «chômage technologique» ? A défaut d’investissements massifs et qualitatifs dans la formation et la reconversion des «ressources humaines», de nombreux travailleurs risquent de connaitre une précarisation sociale, voire une exclusion et une paupérisation. Au Bangladesh, l’automatisation dans le nord-ouest de Dacca a supplanté le travail de plus de 500 mille travailleurs du textile en 2019, en grande majorité des femmes. Tisser et tricoter se font désormais par des machines (Courrier International, Hors-série février-mars 2024).
6. L’IA au service de l’impôt
Dès le début des années 2000, et à l’instar de l’administration de la défense, de la Direction générale de sûreté nationale (DGSN) et de l’administration des douanes, l’administration fiscale (AF, Direction générale des impôts, DGI) a été à l’avant garde de la digitalisation/numérisation, avec pour principal mot d’ordre lancé : «une administration fiscale numérique tournée vers la qualité de service au contribuable». C’est là une approche intelligente et pertinente qui a permis de préparer le terrain pour évoluer vers la réalisation d’un objectif stratégique constituant le «métier central de l’AF» et devant se traduire à terme, concrètement, par la mise en place progressive d’un contrôle fiscal (CF) plus efficace, plus transparent et plus équitable.
Lire aussi | Assises nationales de l’IA: un moment décisif pour la souveraineté technologique
En effet, à partir du moment où la quasi-totalité des déclarations et des documents les accompagnant (bilans, factures et autres documents comptables) sont souscrits en ligne, selon des normes et des formats prédéfinis, c’est la transformation des modes et des processus de contrôle qui devient possible, grâce à la constitution et à l’accumulation d’une banque de données significatives, fiables et de plus en plus exhaustives (Big Data). Le traitement manuel/physique des déclarations est donc réduit au maximum, avec un renforcement du système de contrôle interne. Le traitement automatique et intelligent des données stockées va notamment permettre une génération d’informations-clés telles que des listes de contribuables exerçant une activité professionnelle et non identifiés fiscalement ; des listes de contribuables identifiés fiscalement mais en situation fiscale irrégulière (en matière d’obligations déclaratives ou de paiements d’impôts) ; des listes de contribuables identifiés fiscalement mais présentant un risque potentiel compte tenu de ratios/indicateurs d’alerte générés par le système d’information. De ce fait, le mode de relance et de programmation au CF peut se baser sur une «approche risque fiscal» qui permet de mieux cibler les cas de fraude fiscale.
Les NTIC et l’IA permettent ainsi au CF de mieux encadrer et gérer le «risque fiscal», tout en conciliant les objectifs d’accroissement des recettes fiscales (efficacité), de lutte contre l’impunité fiscale et donc d’équité et de légitimité de l’impôt.
Mais, au début de ce processus de transformation dans la gestion de l’impôt où le CF est appelé à jouer un rôle central, certains préalables et pré-requis ont été nécessaires. Ceux-ci ont été réalisés en grande partie grâce à une démarche multidisciplinaire avec des équipes regroupant juristes, économistes, ingénieurs informaticiens (…). Cette étape initiale a permis de «décloisonner/dé-compartimenter» les tâches de conception et de gestion de l’impôt, favorisant ainsi l’émergence d’une «culture informatique» qui va permettre aux divers acteurs de parler et de comprendre un «langage commun», préalable indispensable à la phase d’automatisation des processus de gestion.
Le regroupement des dispositions légales en matière fiscale dans un seul Code général des impôts, en 2008, avec une refonte et une simplification/harmonisation des procédures fiscales, a été un pas décisif dans ce processus. Et, initialement, c’est la qualité de service au contribuable qui a été prioritaire pour convaincre et faire adhérer les contribuables, en particulier les principaux acteurs économiques, et promouvoir une «conformité fiscale volontaire», découlant elle-même de la nature déclarative du système fiscal mis en place au cours des années 1980 (TVA, IS et IR).
Ainsi, en 2024, le nombre d’adhérents aux services en ligne a dépassé les 2,5 millions, avec plus de 300 mille adhérents, en une année. Plus de 24,5 millions d’opérations ont été effectués en ligne, soit une hausse de 8%, par rapport à 2023. Dans les 24,5 millions, plus de 4,9 millions sont des déclarations en ligne, plus de 12 millions sont des opérations de télépaiement, et plus de 4,6 millions sont des E-attestations. C’est là une riche base de données constituée dont le traitement intelligent doit permettre la génération automatique et intelligente d’informations pertinentes en matière de gestion du risque fiscal et de détection de la fraude fiscale.
L’interaction automatique entre AF et Contribuables a ainsi permis de booster les recettes fiscales. Actuellement, le traitement automatique des informations collectées, selon des programmes préconçus, permet d’assurer une meilleure qualité de gestion et de CF, tout en remédiant au manque structurel des ressources mis à la disposition de l’AF. La même année (2024), pas moins de 60 mille «contrôles sur pièces» ont été effectués. Le nombre de «contrôles sur place» (vérification sur place de la comptabilité des entreprises) a atteint 7 674 dossiers, avec cependant une démarche qualitativement meilleure en termes de ciblage, grâce notamment à la génération automatique d’informations fiables et pertinentes sur le risque fiscal. En effet, en 2024, le «contrôle sur place» a connu une hausse de 32% en nombre de dossiers et une augmentation de 66%, en termes de droits recouvrés (9,6 MMDH).
Quant au «contrôle sur pièces», le nombre de dossiers vérifiés a connu une hausse de 9%, et les droits recouvrés ont atteint plus de 5 MMDH. Globalement, les recettes additionnelles ont presque atteint 18 MMDH, soit 26% de plus qu’en 2023, représentant ainsi 7,4% des recettes fiscales brutes réalisées en 2024 par la DGI. Ainsi la mobilisation des nouvelles méthodes de CF, basées sur l’IA, encore à ses débuts, offre de nouvelles perspectives très prometteuses, en termes d’amélioration des recettes fiscales mais aussi et surtout en termes de transparence et de justice fiscale. Néanmoins, le «moteur» de ce processus demeure de nature politique, là où l’IA est encore perçue avec suspicion.
Les principaux mots clés de l’IA
> Intelligence artificielle (IA) : domaine de l’informatique s’appuyant sur des systèmes capables d’accomplir des tâches complexes (reconnaissance de formes, résolution de problèmes, etc.).
> Apprentissage automatique : ensemble de méthodes permettant aux machines d’apprendre de manière autonome à partir de données brutes.
> IA prédictive : algorithmes et modèles d’apprentissage automatique permettant de prévoir des résultats.
> IA générative : IA capable de créer un contenu entièrement nouveau à partir de données existantes ou d’une demande/requête d’un utilisateur.
> Big data : très grande quantité de données, dont la facilitation de la transmission et du stockage ont permis des progrès considérables. L’analyse et le traitement de ces volumes d’informations dépasse les capacités humaines et celles des outils informatiques classiques.
L’IA entre scepticisme et optimisme
Il existe, en matière d’IA, un clivage entre sceptiques prônant la prudence et les optimistes favorables à l’accélération. Dans un décryptage de The Economist, il est possible de lire : «Ces rebondissements illustrent une fracture évidente dans la Silicon Valley. D’un côté les pessimistes sont convaincus qu’en l’absence de garde-fous, l’IA représente une menace existentielle pour l’humanité et qu’il faut donc mettre en place une réglementation plus stricte. De l’autre côté, les optimistes relativisent les craintes suscitées par l’IA et insistent sur l’accélération formidable du progrès dont elle est porteuse». Ce clivage aurait donc une dimension philosophique. Pour la MIT Technology Review, la priorité actuelle est de «trouver comment empêcher une super intelligence artificielle de devenir malveillante». En réalité, l’IA n’est ni une menace ni une opportunité. Tout dépend du domaine où elle est utilisée et des objectifs préalablement définis par des humains. D’où, au préalable, l’importance de l’analyse et de la compréhension de la réalité non statique dans laquelle l’IA est utilisée. En effet, l’IA est et sera toujours un moyen et jamais une fin en soi. Elle est créée, développée et mobilisée dans la réalité concrète au profit d’individus et de groupes sociaux ayant des intérêts divergents, voire contradictoires. Dans la vie collective, elle doit être fondée sur une politique publique démocratiquement élaborée, adoptée et appliquée. Pour éviter les déviations ou dérapages éventuels, il est possible de prévoir un «Observatoire de l’IA» indépendant, dont le rôle est d’assurer une «veille» quant aux applications de l’IA et de leurs impacts effectifs, et au respect des règles adoptées.
IA et élections
Voter avec un clic. Techniquement c’est possible. Mais les préalables en matière de transparence ne sont pas uniquement de nature technique. Ces préalables sont indispensables quant à la crédibilité de la démocratie électorale. Dans le New York Times du 15 novembre 2023, Jack Nicas aborde dans un long article le recours à l’IA lors de la campagne électorale en Argentine. «La présidentielle en Argentine est rapidement devenue un laboratoire des campagnes électorales à l’ère de l’IA (…). Le rôle essentiel de cette technologie dans la campagne (électorale) et les discussions qu’elle soulève, soulignent son influence croissante dans l’environnement politique». Le processus électoral peut être biaisé, avant même le traitement automatique des votes exprimés. En effet, en Argentine, par l’intermédiaire d’images générées par l’IA, les deux candidats, le péroniste Sergio Massa, et Javier Milei, candidat ultralibéral d’extrême droite, se sont livrés à une bataille de désinformation réciproque. Chaque candidat a essayé de créer des scènes dystopiques pour assombrir l’image de son adversaire. Au Canada, à Toronto, un candidat à la mairie a même utilisé des images de SDF (sans domicile fixe) générés par IA pour montrer à quoi pourrait ressembler la ville s’il n’était pas élu. Mobiliser la peur permet d’affaiblir la raison et de mieux manipuler les gens. En Europe, c’est une méthode devenue courante à travers les médias des mouvements d’extrême droite ou à travers les médias qui flirtent avec ces derniers. Chacun se crée une image de sauveur tout en diabolisant son adversaire. Les risques de désinformation sont énormes en l’absence d’encadrement de l’utilisation de l’IA, en politique, et plus particulièrement dans les campagnes électorales. Aux Etats Unis d’Amérique (EUA), lors de l’affrontement Biden-Trump, puis Harris-Trump, la campagne présidentielle a été l’occasion de démonstration de forces. Le parti républicain, dès le début de la campagne, a diffusé une vidéo entièrement produite avec de l’IA où on voyait des scènes d’explosion à Taïwan, Wall Street à l’abandon, des migrants envahissant en masse la frontière sud des EUA (…). «Cette vision apocalyptique d’un second mandat Biden-Harris préfigure la façon dont l’IA pourrait modifier le paysage des campagnes politique» (Forbes) et influencer le choix des électeurs.
IA et guerres
«Au cours de la seule première semaine de son offensive, l’armée de l’air israélienne a déclaré avoir largué 6 000 bombes sur Gaza, territoire palestinien de 360 km qui compte parmi les plus densément peuplés au monde. Des milliers d’autres déflagrations ont retenti depuis. Israël dispose de l’armée à la fois la plus puissante et la plus moderne (technologiquement) du Moyen Orient». (Los Angeles Time, 2 novembre 2023).
En fait, bien avant le 7 octobre 2023, l’Etat sioniste d’Israël avait annoncé qu’il faisait appel à l’IA dans des opérations de destruction aussi bien dans les territoires palestiniens occupés que dans les Etats voisins. Les «frappes chirurgicales» ont ainsi fait des dizaines de milliers de morts dont plus du tiers sont des enfants. En 2021, l’armée sioniste a même qualifié le conflit armé de «première guerre IA». Ainsi, de «prison à ciel ouvert», Gaza est devenue aussi un «laboratoire à ciel ouvert», où Israël expérimente de nouvelles armes. «Les spécialistes en droit international ont émis des doutes quant à la légalité de tels outils, et des analystes craignent qu’ils représentent un pas de plus vers l’avènement des armes autonomes». Dans son offensive à Gaza, depuis le 7 octobre 2023, il est apparu clairement que l’armée sioniste bombarde et détruit d’abord au maximum, avant de faire intervenir ses effectifs sur le terrain. Sans ces bombardements massifs, l’armée israélienne aurait été incapable de livrer des combats au sol. Antony Loewenstein, journaliste indépendant et auteur de «The Palestine Laboratory», est même allé jusqu’à déclarer : «Les frappes sur Gaza n’ont rien de chirurgical. C’est une hécatombe parmi la population civile. Un tiers des maisons ont été détruites à Gaza (dès le début du mois de novembre 2023). Pour le [ciblage précis], on repassera».
IA : le combat du siècle
Au début de janvier 2025, les EUA ont dû se réveiller brutalement. La société chinoise d’IA DeepSeek a provoqué un véritable séisme dans le monde des nouvelles technologies. En misant au départ 6 millions de dollars avec l’utilisation de puces peu performantes, cette société a réussi à publier des «grands modèles de langage» (LLM), d’une qualité équivalente à ceux d’OpenAI, leader étasunien de l’IA qui, pour créer ChatGPT, avait dû investir pas moins de 1 milliard de dollars et utiliser des microprocesseurs haut de gamme. La restriction étasunienne dans l’exportation de puces d’IA a donc été vaine. Et la nouvelle génération de grand modèle Open source DeepSeek-R1 a été lancée le jour même de l’investigation de D. Trump à la Maison Blanche, le 20 janvier, avec un coût trente fois inférieur, tout en offrant des performances équivalentes. Ce fut un «moment historique», puisque R1 est classé en 3ème place du classement général, et à la 1ère place pour ce qui est de la maitrise du style. Et la réplique n’a pas tardé. 24 heures après son come back, D. Trump a dévoilé un vaste plan d’investissement dédié à l’IA. Financé à hauteur de 500 milliards de dollars, le projet Stargate (la porte des étoiles) vise à construire dans les EUA des infrastructures pour le développement de l’IA. L’objectif est de transformer les EUA en un «empire de la puissance de calcul», ou plus simplement un «empire numérique». Mais la Chine, habituée à travailler dans la discrétion, talonne les EUA, en fournissant 36% de LLM dans le monde. C’est le 2ème contributeur du monde à l’IA, après les EUA (pour l’instant). A lui seul, le géant Alibaba Cloud a dévoilé plus de 100 modèles d’IA en open source sur 1300 LLM recensés dans le monde. Dans cette course, l’Union Européenne traine les pieds. La France fait exception avec Mistral et, de manière décomplexée, accorde un grand intérêt à l’expérience de DeepSeek. Certains pays tels que l’Inde ou le Brésil, sans oublier la Russie, sont aussi dans la course. Le sommet pour l’action en matière d’IA, tenu à Paris, les 10 et 11 février 2025, a d’ailleurs été coprésidé par la France et l’Inde qui détient un potentiel important en termes de ressources humaines hautement qualifiées et souvent «siphonnées» par les EUA (et ne figurant certainement pas dans la liste des immigrés à exclure des EUA, liste établie par D. Trump et ses acolytes).