ActualitésAfriqueDiasporaInternationalNationaleOpinion
A la Une

Contribution de Dr. Ali Kahlane: L’Intelligence artificielle et ChatGPT (Suite et fin)

L’Intelligence Artificielle (IA) peut avoir des applications utiles, mais elle peut également présenter des dangers pour l’humanité. L’émergence de systèmes d’armes létaux autonomes soulève des préoccupations croissantes quant à l’éthique de leur utilisation dans les conflits armés.

ChatGPT, un chatbot génératif d’IA, a été interdit dans plusieurs pays pour diverses raisons, notamment parce qu’il ne respectait pas le RGPD européen. Les relations tendues entre la Chine et les États-Unis ont conduit Pékin à ne pas permettre qu’une plateforme similaire à ChatGPT fonctionne sur son territoire, tandis que Moscou craint une mauvaise utilisation de la plateforme. La Corée du Nord, l’Iran, Cuba et la Syrie ont également interdit ChatGPT, principalement en raison de règlements stricts sur l’utilisation d’Internet et des préoccupations liées à la désinformation dans leur pays.

L’IA et l’éthique

L’utilisation croissante de l’IA soulève de nombreuses questions éthiques, notamment en ce qui concerne la vie privée et la sécurité des données. Les préoccupations à cet égard ne feront qu’augmenter à mesure que les entreprises collectent plus de données sur leurs utilisateurs.

Le développement et l’utilisation de l’intelligence artificielle soulèvent diverses questions éthiques et morales. Voici quelques points importants à considérer :

Un système de recrutement basé sur l’IA pourrait, en se basant sur des données historiques, favoriser les candidats d’un certain sexe ou d’une certaine origine ethnique, reproduisant ainsi des biais et des discriminations existants. Les algorithmes peuvent reproduire les stéréotypes de genre qui existent dans la société. Comme un algorithme de recrutement qui peut favoriserait les candidatures masculines pour des postes techniques, simplement parce qu’il a été entraîné sur des données historiques déséquilibrées.

Les systèmes d’IA utilisés pour évaluer les demandes de prêt bancaire devraient être transparents et explicables pour que les clients comprennent les raisons pour lesquelles leur demande a été approuvée ou refusée.

Un assistant vocal intelligent pourrait enregistrer et stocker des conversations privées entre les membres d’une famille, soulevant des préoccupations concernant la confidentialité des informations personnelles.

Les biais algorithmiques sont devenus un sujet de préoccupation majeur et croissant. En effet, les algorithmes de l’IA peuvent reproduire les préjugés humains, ce qui soulève des problèmes de transparence, de responsabilité et de réglementation de l’IA qui sont devenus des sujets brûlants dans les débats publics.

Un véhicule autonome impliqué dans un accident de la route soulève la question de savoir qui est responsable – le fabricant du véhicule, le développeur du logiciel de l’IA, ou le propriétaire du véhicule – et comment les réglementations doivent être adaptées pour tenir compte de ces nouvelles technologies.

Ils peuvent refléter les préjugés raciaux et reproduire les inégalités raciales dans la société. Par exemple, un algorithme de prédiction de la criminalité peut donner des scores de risque plus élevés aux personnes de couleur, même si elles ont des antécédents criminels moins graves que les personnes blanches.

Les inégalités géographiques peuvent générer un traitement différent pour les personnes en fonction de leur lieu de résidence. Par exemple, un algorithme de détection de la fraude peut être plus sévère avec les résidents des quartiers pauvres, simplement parce qu’ils ont des antécédents de fraude plus élevés dans ces zones.

Ils peuvent reproduire les stéréotypes d’âge, en discriminant les personnes plus âgées ou plus jeunes. Par exemple, un algorithme de recrutement peut ne pas considérer les candidats de plus de 50 ans comme aptes pour certains postes, simplement parce qu’ils ont été entraînés sur des données historiques qui excluent les travailleurs plus âgés.

Enfin les algorithmes peuvent refléter les préjugés culturels et reproduire les stéréotypes culturels dans la société. Par exemple, un algorithme de traduction automatique peut avoir des difficultés à traduire des expressions idiomatiques ou culturelles, ou à comprendre les différences culturelles dans l’utilisation du langage.

L’utilisation de l’IA soulève des préoccupations quant aux pertes d’emplois et à l’automatisation de certaines tâches. Bien que l’IA puisse être un outil précieux pour automatiser des tâches répétitives et dangereuses, elle peut également remplacer des emplois dans certains domaines. Il est donc crucial de trouver un équilibre entre l’automatisation et la protection des emplois.

Ces exemples illustrent quelques-unes des préoccupations éthiques soulevées par l’utilisation de l’IA dans diverses situations et domaines d’application.

L’IA tueuse d’hommes?

Malheureusement, l’IA peut également avoir des applications beaucoup plus préoccupantes. Au cours des dernières années, les développeurs d’IA et les organisations de la société civile se sont de plus en plus inquiétés de l’émergence de systèmes d’armes létaux autonomes, qui peuvent déterminer et tuer des personnes sans aucun contrôle humain.

Bien que l’utilisation d’armes autonomes sans contrôle humain soit encore en phase de tests, ces armes ont montré une efficacité remarquable dans leur capacité à influencer le cours des guerres et des conflits. Cette évolution soulève des préoccupations croissantes concernant l’éthique de l’utilisation de l’IA dans les conflits armés.

Figure N°1 : Les armes autonomes basés sur l’intelligence artificielle auto décisionnaires

L’IA pourrait malheureusement avoir des applications beaucoup plus inquiétantes. Au cours des dernières années, les développeurs de l’intelligence artificielle et les organisations de la Société civile sont devenus de plus en plus inquiets de l’émergence de systèmes d’armes létaux autonomes, considérés comme « aptes à déterminer la cible et à tuer les personnes sans contrôle humain ».

Bien qu’il n’y ait pas encore d’accord international sur une interdiction ou une réglementation spécifique des armes autonomes pilotées par l’IA, l’ONU a adopté en novembre 2020 une première résolution appelant les États à prendre des mesures pour prévenir leur prolifération et à garantir leur utilisation conforme au droit international et à l’éthique. En janvier 2022, les discussions intergouvernementales sur la réglementation de ces armes ont repris à Genève après une interruption due à la pandémie de la COVID-19.

Cependant, la question des armes autonomes pilotées par l’IA reste une préoccupation mondiale et nécessite une réglementation internationale plus stricte.

ChatGPT Interdit?

En plus de ne pas être conforme au RGPD, ChatGPT donne de fausses réponses et c’est la raison pour laquelle il a été interdit en Italie qui a été le premier pays occidental et européen à le faire. Du coup, cela soulève des questions sur d’éventuelles interdictions similaires par d’autres pays occidentaux. ChatGPT a été interdit après que l’autorité italienne de protection des données ait appelé OpenAI à cesser le traitement des données de ses  résidents, affirmant que ChatGPT ne respectait pas le Règlement général sur la protection des données (RGPD) européen.

Cependant, l’Italie n’est pas le seul pays à avoir exprimé des préoccupations suite à l’arrivée des chatbots génératifs d’IA. Avant l’Italie, d’autres avaient rendu l’outil d’IA génératif d’OpenAI inaccessible sur leur territoire en raison de diverses préoccupations.

Etant donné que les relations entre la Chine[1] et les États-Unis sont historiquement tendues, Pékin ne permettra jamais à une plateforme similaire à ChatGPT de fonctionner sur son territoire. La Chine s’inquiète que les États-Unis utilisent la plateforme d’IA pour propager des informations trompeuses.

Moscou est préoccupée par la possibilité de mauvaise utilisation de la plateforme d’IA, et à un moment où le pays est en guerre indirecte avec les pays occidentaux, il ne peut pas se permettre qu’une plateforme semblable à ChatGPT prenne le contrôle des récits nationaux.

La Corée du nord restreint l’utilisation d’Internet et l’État surveille pratiquement toutes les activités sur Internet, il était logique que le gouvernement nord-coréen ait interdit ChatGPT développé aux États-Unis.

L’Iran, le seul pays du Moyen-Orient qui l’interdit. La relation entre l’Iran et les États-Unis qui est au plus mal depuis que l’administration Donald Trump s’est retirée de l’accord nucléaire, n’arrange pas les choses.

Le gouvernement de Cuba restreint également l’utilisation de ChatGPT lié de toute façon a des règlements stricts sur l’utilisation d’Internet.

La Syrie, qui a déjà été déchirée par la guerre, a déjà beaucoup de difficultés avec la désinformation et ne veut pas prendre de risques supplémentaires avec une plateforme d’IA développée par une entreprise américaine.

Les “mensonges” de ChatGPT?

En demandant les biographies de trois hommes politiques algériens nous obtenons des informations que “Houari Boumediene premier ministre” et “Chadli Bendjedid, ministre de la Défense nationale” alors que “Bouteflika a été réélu en 2019 pour la cinquième fois”. Ce sont bien sur des affirmations erronées de ChatGPT dans la rédaction des biographies de ses politiciens algériens (Voir Fig. N° 4).

Bien que l’Intelligence Artificielle ait fait des progrès impressionnants, elle est encore loin d’être parfaite. L’un des problèmes les plus courants est la capacité de l’IA à “mentir” et ainsi  propager des fausses informations.

ChatGPT peut causer de graves préjudices avec cette pratique, en particulier dans des domaines où la précision est primordiale comme la santé, les finances et la sécurité. Les entreprises qui utilisent l’Intelligence Artificielle pour prendre des décisions peuvent également être touchées, car les erreurs de l’IA peuvent entraîner des pertes financières importantes.

De plus, les mensonges de ChatGPT peuvent avoir un impact sur la société dans son ensemble. Les fausses informations générées par l’IA peuvent être utilisées pour influencer l’opinion publique, la politique et même les élections. Il est donc crucial de comprendre les risques liés aux mensonges de ChatGPT et de prendre des mesures pour les prévenir.

Figure N° 2 : Des exemples des messages erronés incomplets de ChatGPT

Travailler de concert avec l’Intelligence Artificielle peut aider à minimiser les erreurs et à améliorer les résultats obtenus. Les humains peuvent ainsi aider l’IA à repérer les erreurs et à les corriger, tout en fournissant des informations supplémentaires pour améliorer les prévisions de l’IA.

Cependant, il est également crucial de reconnaître les limites de l’Intelligence Artificielle et de ne pas se fier aveuglément à ses prévisions. Les êtres humains doivent rester impliqués dans le processus de prise de décision pour s’assurer que les choix effectués sont bien éclairés.

Microsoft qui utilise l’outil ChatGPT dans son navigateur Bing a annoncé de nouvelles contraintes pour limiter les risques liés à son outil, tout en maintenant son fonctionnement. Désormais, chaque conversation sera limitée à cinq questions sur le même sujet[2], après quoi le système se réinitialisera et entamera une nouvelle conversation en oubliant ce qui a été dit précédemment.

L’Intelligence artificielle générale (AGI)

L’AGI (Artificial General Intelligence) vise à créer des systèmes capables de comprendre et de traiter des tâches intellectuelles complexes de la même manière que les humains. Contrairement à l’IA spécialisée, appelée aussi “IA étroite”, qui est conçue pour effectuer des tâches spécifiques, l’AGI est conçue pour être polyvalente et adaptable à différents types de tâches.

Elle est souvent considérée comme une étape importante dans le développement de l’IA car elle représente la capacité de l’IA à résoudre des problèmes dans des domaines divers, sans être limitée à une tâche spécifique. Cependant, la création de l’AGI pose également des défis importants, notamment en matière de conception et de contrôle de systèmes intelligents à grande échelle, pour le moment.

Figure N°3 : Quelques raisons pour lesquelles l’Intelligence artificielle générale (AGI) fait peur.

Le tableau de la figure N°3 peut être alarmant, mais il est important de noter que ces craintes ne sont pas nécessairement des scénarios inévitables, mais plutôt des hypothèses sur les conséquences potentielles de la création d’une AGI. La plupart des experts en IA s’entendent pour dire que ces risques peuvent être atténués par une réglementation appropriée et une surveillance continue.

La violence de l’impact de ChatGPT est telle que les pays et les organisations de par le monde ont du mal à s’en remettre. Des pays l’interdisent et d’autres n’en pensent pas moins. A l’OCDE, une commission spéciale est en train de faire le point sur l’IA et  son utilisation depuis le début de ce mois[3].

L’IA et notre contexte culturel

Dans le contexte algérien, l’IA peut offrir des avantages importants en termes de développement économique et de compétitivité. Cependant, il est important de reconnaître les défis uniques liés à l’utilisation de l’IA dans une région religieuse et traditionaliste comme notre pays. Les algorithmes doivent être conçus de manière à éviter les biais et les stéréotypes culturels qui pourraient nuire aux communautés locales. De plus, il est important d’assurer la transparence et la responsabilité des algorithmes pour garantir la confiance des utilisateurs.

Ces défis éthiques sont particulièrement importants car les algorithmes peuvent introduire des biais culturels et des stéréotypes qui ont des impacts négatifs sur les communautés locales, comme cela a été le cas dans d’autres parties du monde. Par exemple, les systèmes de reconnaissance faciale ont été critiqués par ailleurs, pour leur manque de précision dans l’identification des personnes de couleur ou de certaines cultures, ce qui peut entraîner des préjudices et des discriminations.

De plus, la vie privée est une préoccupation majeure pour les utilisateurs de l’IA, les algorithmes doivent être conçus de manière à protéger les données personnelles des utilisateurs et à garantir leur sécurité en ligne. La transparence et la responsabilité des algorithmes sont également importantes pour maintenir la confiance des utilisateurs, en leur permettant de comprendre comment les décisions sont prises et comment les données sont utilisées par le programme d’IA utilisé.

C’est pourquoi il est important de trouver un équilibre entre l’utilisation de l’IA pour améliorer la productivité et la qualité de vie, tout en prenant des mesures pour minimiser les pertes d’emplois et soutenir la reconversion professionnelle des emplois touchés.

Figure N°4 : Le potentiel de la ressource humaine nationale en IA

Les applications de l’IA

Il convient de noter que l’utilisation de l’IA en Algérie est relativement nouvelle et que le développement de cette technologie dans le pays est encore en cours. Cependant, l’Algérie a pris des mesures pour encourager l’adoption de l’IA, notamment en créant un fonds d’investissement pour soutenir les start-ups travaillant dans le numérique en général et le  domaine de l’IA et en lançant une École nationale supérieure d’intelligence artificielle (ENSIA) et de mathématiques (ENSM).

L’Algérie utilise l’IA dans les services numériques pour améliorer l’expérience client et pour renforcer la cybersécurité. Dans les applications industrielles et les industries manufacturières, l’IA est utilisée pour optimiser les processus de production, améliorer la qualité des produits, automatiser les tâches répétitives et dangereuses, et pour la maintenance prédictive. En agriculture, l’IA est utilisée pour prédire les conditions météorologiques, surveiller la santé des cultures, optimiser les processus d’irrigation et améliorer l’efficacité des exploitations agricoles.

L’IA peut également être un outil puissant pour le développement économique et la création d’emplois dans notre pays. Les industries émergentes telles que la technologie numérique et les services basés sur l’IA offrent des opportunités pour les entrepreneurs locaux et le mouvement de startups  pour créer encore plus d’entreprises innovantes et répondre à la demande croissante de la numérisation de notre pays.

Ces exemples montrent comment l’IA peut être utilisée pour améliorer les pratiques commerciales et agricoles et soutenir les industries locales en fournissant des informations précises et des analyses approfondies. Cependant, il est important de s’assurer que ces applications sont conçues de manière à éviter les biais culturels et à respecter la vie privée des utilisateurs algériens.

De plus, il est essentiel de reconnaître que l’adoption de l’IA peut également entraîner des pertes d’emplois dans certaines industries. Le gouvernement et les entreprises doivent travailler ensemble pour s’assurer que les travailleurs sont formés et disposent des compétences nécessaires pour s’adapter à l’automatisation croissante. De plus, l’IA doit être utilisée de manière responsable pour garantir que les avantages de la technologie sont répartis équitablement dans la société.

Enfin, l’IA peut être un outil précieux pour aider à fixer les talents locaux plutôt que de les perdre à l’étranger. Le gouvernements et les entreprises peuvent investir encore plus dans la formation et la recherche en IA pour attirer et retenir des talents locaux. Les programmes éducatifs peuvent également être développés pour encourager les jeunes à poursuivre des carrières dans le domaine de l’IA.

En conclusion

L’intelligence artificielle, malgré les défis et les préoccupations soulevés, offre un potentiel immense pour transformer notre monde de manière positive et inspirante. Les avancées dans le domaine de l’IA ont déjà montré des résultats impressionnants dans divers secteurs, améliorant la qualité de vie et stimulant la croissance économique.

En ce qui concerne les armes autonomes, il est crucial de continuer à travailler sur la régulation internationale et la coopération entre les pays pour éviter les conséquences potentiellement néfastes. Un avenir où l’IA est utilisée de manière responsable et éthique dans le domaine militaire est possible grâce aux efforts collectifs des gouvernements, des organisations et des chercheurs.

Les chatbots basés sur l’IA, comme ChatGPT, peuvent être améliorés pour fournir des informations plus précises et fiables. Les collaborations entre humains et IA peuvent contribuer à minimiser les erreurs et optimiser les résultats obtenus, en créant un écosystème d’apprentissage et de croissance mutuels.

L’Intelligence Artificielle Générale (AGI) représente une étape passionnante pour l’évolution de l’IA, permettant des systèmes polyvalents et adaptables pour résoudre des problèmes complexes. Avec une réglementation adéquate et une surveillance continue, les risques associés à l’AGI peuvent être gérés, ouvrant la voie à des progrès technologiques sans précédent.

Dans le contexte algérien, l’IA offre des opportunités considérables pour stimuler le développement économique et la compétitivité. En adoptant une approche éthique et transparente, en évitant les biais culturels et en garantissant la protection des données, l’IA peut être intégrée harmonieusement dans la société algérienne, favorisant le progrès et la prospérité.

Les applications de l’IA dans les domaines des services numériques, de l’industrie, de l’agriculture et de l’économie ont le potentiel de révolutionner les méthodes traditionnelles et d’améliorer l’efficacité. En adoptant l’IA de manière responsable et en soutenant la formation et la reconversion des emplois, les avantages de la technologie pourront être répartis équitablement au sein de la société.

En somme, l’avenir de l’IA est prometteur et inspirant, il ouvre la porte à des possibilités infinies pour un monde meilleur et plus avancé. Ensemble, en abordant les défis de manière responsable et en travaillant en synergie avec l’IA, nous pouvons façonner un futur où l’innovation et l’éthique se rejoignent pour notre bien.

Dr. Ali Kahlane

Le lien pour la première partie : https://www.algerieinvest.dz/contribution-de-dr-ali-kahlane-lintelligence-artificielle-et-chatgpt-partie-1/


[1]  Le géant technologique chinois Alibaba a annoncé son intention de lancer son propre produit d’intelligence artificielle (IA) de type ChatGPT, appelé Tongyi Qianwen. 11 avril 2023. https://www.bbc.com/news/business-65236848

[2] Le nombre de questions était d’abord illimité au lancement ,de Bng, puis après l’article de Kevin Roose dans le New York Time du 16 février 2023 où l’IA Sydney avait déclaré qu’elle était amoureuse de lui et a sous entendu qu’il devrait se débarrasser de  sa femme car elle ne l’aime pas (!). Microsoft avait alors limité le nombre de questions à 15, pour finalement arriver à 5 aujourd’hui.

[3]https://www.euractiv.com/section/artificial-intelligence/news/eu-lawmakers-set-to-settle-on-oecd-definition-for-artificial-intelligence/

North Africa Energy & Hydrogen Exhibition and Conference
Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page

Adblock détecté

S'il vous plaît envisager de nous soutenir en désactivant votre bloqueur de publicité