abusesaffiliationarrow-downarrow-leftarrow-rightarrow-upattack-typeblueskyburgerchevron-downchevron-leftchevron-rightchevron-upClock iconclosedeletedevelopment-povertydiscriminationdollardownloademailenvironmentexternal-linkfacebookfilterflaggenderglobeglobegroupshealthC4067174-3DD9-4B9E-AD64-284FDAAE6338@1xinformation-outlineinformationinstagraminvestment-trade-globalisationissueslabourlanguagesShapeCombined Shapeline, chart, up, arrow, graphLinkedInlocationmap-pinminusnewsorganisationotheroverviewpluspreviewArtboard 185profilerefreshIconnewssearchsecurityPathStock downStock steadyStock uptagticktooltiptriangletwitteruniversalitywebwhatsappxIcons / Social / YouTube

This page is not available in English and is being displayed in French

Article

21 Jun 2023

Author:
Fouad Laroui, Jeune Afrique

Selon un analyste, l'Afrique doit se joindre à la conversation autour de l'IA pour ne pas subir cette révolution technologique

"Comment l’intelligence artificielle voit l’Afrique", 20 juin 2023

On parle beaucoup d’intelligence artificielle (IA) ces jours-ci. Est-ce une bonne chose, est-ce une mauvaise chose ? Est-elle au service de l’humanité ou constitue-t-elle un danger ? Quelles sont ses conséquences pour l’emploi ? Va-t-elle déclencher une nouvelle révolution industrielle ? Qui seront les gagnants, qui seront les perdants ? On trouve ce genre de débat un peu partout, il est inutile de le reprendre ici...

En revanche, ce qui me semble moins souvent évoqué, c’est le biais de confirmation qui est à la base des algorithmes de l’IA. Puisqu’il s’agit de compiler une somme impressionnante de textes déjà existants pour en faire la synthèse, le résultat confirme forcément le point de vue de la majorité. Et tant pis pour l’originalité, l’extravagance, l’oiseau rare, le loup blanc...

Mais alors, que pensez-vous d’un autre biais de confirmation qui nous regarde bel et bien, qui nous concerne en tant qu’Africains : comment l’intelligence artificielle nous considère ? Autrement dit : comment l’IA voit l’UA ?

Faites l’expérience suivante avec Google Images : tapez comme mots-clés « enfants Afrique » et vous obtiendrez surtout des photos d’enfants mal nourris, mal vêtus, faisant triste mine ; tapez « enfants Europe » et ce sera le contraire : d’adorables bambins souriants ou des pré-ados bien nourris et en bonne santé.

L’algorithme utilisé pour obtenir ces images si contrastées est du même type que ceux qu’utilise l’IA pour produire des textes. Il ne faut pas s’étonner si les textes concernant l’Afrique sont aussi misérabilistes. La question qui se pose est la suivante : que pouvons-nous faire pour redresser ce biais ? La réponse est étonnamment simple : il nous faut nous joindre à la conversation...