L’Éthique, un prérequis en matière d’intelligence artificielle.
Grâce à la coexistence de nos multiples sens, de notre perception et de notre raisonnement, la théorie visuelle conventionnelle prend sa source dans la dimension cognitive humaine. Parce que nous ne décrivons pas une image seulement avec nos yeux, mais avec la contribution de notre mémoire et de notre expérience, une multitude d’émotions sont alors impliquées dans la compréhension d’un narratif visuel.
Par ce processus, nous sommes donc en mesure de nommer ou d’identifier ce que l’on voit. Dans son article “How to see the World”, Nicholas Mirzeoff relate que la culture visuelle se constitue « non seulement de la quantité totale de ce qui a été fait pour être vu, mais réside également dans la relation entre ce qui est visible et les noms que nous donnons à ce qu’on voit. » [Traduction libre][1] De ce fait, l’action de nommer devient donc un élément considérable de notre présente culture visuelle. Pour tout dire, le regard humain a la capacité d’être visuellement conscient et fait preuve de discernement envers ce qui est représenté, non-représenté ou sous d’autres formes.
Ayant revisité brièvement le concept de la théorie visuelle conventionnelle impliquant notre regard, nous allons maintenant nous pencher sur comment les machines « voient » les images. Ces technologies communément nommées sous le terme d’intelligence artificielle, sont programmées pour « voir » par le biais de nombreux algorithmes ayant pour but de cibler, quantifier, analyser, classer et identifier les images. Ainsi, la reconnaissance d’objets ou de scènes via ces technologies s’exécute grâce à l’apprentissage automatique. Les images sur les réseaux sociaux, caméras de surveillance dans les rues ou encore celle des drones dans le ciel sont traitées par milliards pour en extraire des données. Par conséquent, l’accumulation de ces “Big Data” forment ensemble une culture visuelle bien distincte. Tel que mentionne l’artiste Trevor Paglen dans l’article “Safety in numbers ? ”, sur le site internet de Frieze : « Ces images ne sont pas destinées à nous : elles sont destinées à faire des choses dans le monde ; les yeux humains ne sont pas dans la boucle. » [Traduction libre][2] Nous en déduirons qu’à l’heure actuelle, son existence ne semble pas être destinée pour nous ou pour nous enrichir intellectuellement et socialement. Prenons par exemple les imageries aériennes provenant des drones ; bien que le paysage soit la portion visible à nos yeux, le traçage, la surveillance et la cartographie se produisent cependant dans l’invisibilité.
Cela dit, face à l’émergence de cet écosystème digital dans notre culture visuelle ces dernières années, nous devons revoir la façon dont nous « lisons » les images. Une nouvelle littérature visuelle devrait, d’une part, permettre d’identifier et d’analyser les attributs visuels d’une image et également miser sur une investigation visuelle plus approfondie. C’est en ayant une juste compréhension des fonctions et des usages de la vision numérique que nous pouvons mettre en lumière ses enjeux. Au terme de cette approche théorique, nous devons être en mesure de comprendre d’avantage cette « Boîte Noire » qu’est l’intelligence artificielle et sa vision. C’est en s’interrogeant sur l’intention derrière une image que nous pouvons optimiser notre savoir et apporter des solutions à cet écosystème digital chargé de préjudice et qui actuellement, est loin de pouvoir se passer du « point de vue » humain.
Pour comprendre adéquatement ce sujet, nous devons nous pencher sur l’architecture des technologies d’intelligence artificielle et d’apprentissage automatique. Par le biais d’algorithmes, ces technologies sont capables d’analyser et d’établir des prédictions, ce basant sur leurs précédents calculs. Parce que leurs fonctionnements reposent en grande partie sur la structuration de données chaque élément se doit d’être nommé ou identifié. À la base, l’identification doit être fait par l’humain, qui nommera les éléments selon sa propre définition. Le problème se pose ici, car notre identification des choses est influencée par notre apprentissage provenant de notre milieu, notre culture et notre pays. En histoire de l’art, cette problématique avec l’identification et la perception des images remontent à fort longtemps ( Tel que l’iconoclaste de l’empire Byzantin et la destruction massive des images représentant le Christ.) Nous pouvons également relater avec l’époque ou l’Allemagne d’Hitler refusait les grands mouvements de l’art moderne et identifiait les images de l’Art Dada ou Cubisme comme « dégénérés ». Cela démontre à quel point les images étaient non seulement nommées mais également contrôlées par le pouvoir en place. En résumé, pour savoir qui décide de comment nommer une image, il faut remonter dans la hiérarchie jusqu’aux pouvoirs en place, et ce, même avec les technologies d’aujourd’hui. Ayant déjà prouver son caractère discriminatoire avec des algorithmes qui reflètent les préjugés humains, il est primordial de se préoccuper de l’aspect éthique de l’intelligence artificielle qui s’installe actuellement dans nos milieux tels que notre système de santé et les compagnies d’assurance.
Incontestablement, les expérimentations ont déjà pointé de nombreux exemples où l’intelligence artificielle n’était qu’en mesure d’identifier seulement quatre catégories ethniques et seulement le genre binaire. Cette catégorisation peut avoir de graves conséquences sur comment nous nous percevons et comment nous percevons les autres. Même si de toute évidence, notre identité est loin d’être homogène, le sentiment de ne pas s’identifier à aucun groupe d’individus peut mener à une dévalorisation de soi, surtout chez les plus jeunes, en plus de susciter des conflits interpersonnels. Dès la naissance notre environnement forge notre identité, il est donc essentiel de grandir en gardant notre environnement propice à l’épanouissement, et ce, par une meilleure compréhension de toutes nos particularités. Toutefois, tel un manipulateur, l’algorithme de classification peut potentiellement nous influencer à catégoriser les gens, à porter jugement et à nous diviser. En fait, ce pouvoir ne se retrouve pas au niveau de l’algorithme, mais nous pouvons nous interroger à savoir si le pouvoir s’exerce au niveau des scientifiques de données, ou encore, par l’organisme ou l’entreprise qui finance ces scientifiques. Connu en politique et en sociologie, diviser pour mieux régner est une stratégie utilisée depuis des siècles et semble bien présente dans les technologies d’apprentissage automatique. L’action de nommer devient donc un moyen de contrôle et l’enjeu est non seulement économique, mais aussi biopolitique. Bien que l’intelligence artificielle permette une certaine productivité et agrémente certains aspects de notre vie, elle fonctionne selon les désirs et intérêts de grandes puissances économiques, ce qui en fait un outil fallacieux et non fiable à la construction de notre identité.
À l’instar de la problématique que nous vivons actuellement, je crois qu’il est important de s’engager dans notre culture visuelle avec un bagage académique et une bonne compréhension de l’architecture de cette intelligence artificielle omniprésente. Parce que nous sommes tous, à des niveaux différents, inondés par les nouvelles technologies et les réseaux sociaux, je crois qu’il serait bénéfique d’inclure rapidement ces connaissances dans notre parcours scolaire pour tous et encore plus chez les adolescents, en plein développement de leurs visions du monde. Même si le concept du panoptique et la surveillance imaginée par Jeremy Bentham date de fort longtemps, il me semble plus que jamais d’actualité, mais il se fait discret dans l’invisibilité. D’un point de vue personnel, cette prise de conscience face à l’invisibilité ,a changé complètement ma vision des images véhiculées sur internet. Loin de désirer une régression à notre civilisation, il est important de garder un esprit critique envers le progrès technologique et il me semble tout à fait légitime de se questionner à qui cela bénéficie réellement. En articulant nos connaissances, notre réflexion et notre volonté d’instaurer un avenir éthique à l’intelligence artificielle, nous veillerons tous ensemble au progrès de l’humanité.
[1] Paglen, Trevor, Safety in numbers ?, consulté le 11-12-21 sur https://www.frieze.com/article/safety-numbers
[2] Mirzeoff, Nicholas, Introduction: How to see the world - How to see the world, Consulté le 09-11-2021 sur https://reserves.concordia.ca/ares/ares.dll?Action=10&Type=10&Value=116571