Skip links

Vers une intelligence artificielle responsable ? (1 / 2)

De nombreuses préoccupations sont nées concernant l’intelligence artificielle, liées à la non connaissance du sujet. En effet, le terme d’intelligence artificielle désigne « l’ensemble des techniques qui permettent à une machine de simuler l’intelligence humaine, notamment pour apprendre, prédire, prendre des décisions et percevoir le monde environnant. »

Les réalisations de l’intelligence artificielle reposent sur des données et des algorithmes, c’est-à-dire des suites d’instructions permettant d’accomplir une action complexe.

L’IA est devenue omniprésente et façonne plus que jamais nos vies. 

Deux déclarations, une canadienne et une européenne, seront présentées sous deux articles. Elles ont pour vocation de poser des principes de développement de l’intelligence artificielle. 

Vers une intelligence artificielle responsable ? (1 / 2) 1

La Déclaration de Montréal créée en 2018 par 500 participants vise à rendre accessible l’intelligence artificielle au plus grand nombre en posant 10 principes et des valeurs éthiques dans l’intérêt de chacun. Ces principes sont des lignes directrices pour une transition numérique et une bonne utilisation de l’intelligence artificielle en préservant des risques qu’elle peut engendrer. Ils fournissent une « boussole éthique qui permet d’orienter le développement de l’intelligence artificielle vers des finalités moralement et socialement désirables. » 

Cette déclaration est issue d’un projet collectif incluant des citoyens, experts et responsables publics. Il incombe aux différents acteurs et décideurs de s’assurer que le déploiement de l’intelligence artificielle soit compatible avec l’épanouissement des êtres humains qui s’exprime à travers leurs capacités affectives, morales et intellectuelles. La présente déclaration fournit un cadre moral permettant d’analyser les situations sociales problématiques et d’y répondre par des pratiques éthiques et responsables.

Cette réflexion s’appuie aussi sur des préoccupations qui pourraient être engendrées par le recours aux machines et aux robots notamment dans l’enseignement et dans le domaine médical. Il s’agit de dégager des principes de bonnes pratiques tant dans le domaine public que privé.

L’intelligence artificielle, dont le rythme de progression est exponentiel depuis les années 1950 demande une réflexion évolutive. Progrès scientifique et technologique majeur, elle peut apporter des améliorations considérables notamment à nos conditions de vie, à l’environnement et au climat. 

Ces bénéfices majeurs peuvent néanmoins amener des bouleversements importants si les processus ne sont pas maîtrisés comme l’atteinte aux droits des individus et la création d’inégalités.

La déclaration de Montréal s’appuie dans sa construction sur 7 valeurs fondamentales : l’autonomie, la justice, le bien-être, la vie privée, la démocratie, la connaissance et la responsabilité.

Ainsi, 10 principes en découle, permettant d’accroître la confiance des individus envers les systèmes artificiellement intelligents. Ceux-ci doivent être modulés en fonction des contextes politiques, culturels, sociaux et juridiques.

PRINCIPE DE BIEN-ÊTRE :

« Le développement et l’utilisation des systèmes d’intelligence artificielle (SIA) doivent permettre d’accroître le bien-être de tous les êtres sensibles. » Autrement dit, il s’agirait d’améliorer les conditions de vie et de travail des individus en leur permettant d’exercer leurs capacités physiques et intellectuelles sans toutefois générer une sensation de mal-être.

PRINCIPE DE RESPECT DE L’AUTONOMIE :

« Les SIA doivent être développés et utilisés dans le respect de l’autonomie des personnes et dans le but d’accroître le contrôle des individus sur leur vie et leur environnement. » Les SIA doivent donc permettre aux individus de mener à bien leurs objectifs de vie en leur assurant un accès à différents types de savoirs afin de développer leurs compétences et leur pensée critique. Les SIA ne doivent néanmoins pas être utilisés pour influencer (propagande, mode de pensées dominant) ou pour surveiller les individus et ne doivent pas emmener à une confusion entre l’homme et ces systèmes.

PRINCIPE DE PROTECTION DE L’INTIMITÉ ET DE LA VIE PRIVÉE :

« La vie privée et l’intimité doivent être protégées de l’intrusion de SIA et des systèmes d’acquisition et d’archivage des données personnelles (SAAD). » Les SIA doivent permettre une déconnexion numérique et la propriété de données personnelles doit être respectée. Aussi, les personnes doivent pouvoir préserver leur liberté en matière de pensées et d’émotions ainsi qu’en terme de décision.

PRINCIPE DE SOLIDARITÉ :

« Le développement de SIA doit être compatible avec le maintien de liens de solidarité entre les personnes et les générations. » Les SIA doivent favoriser les relations humaines, lutter contre l’isolement social et améliorer la gestion des risques. Concernant l’aspect professionnel, les SIA doivent favoriser un travail collaboratif avec les humains.

PRINCIPE DE PARTICIPATION DÉMOCRATIQUE :

« Les SIA doivent satisfaire les critères d’intelligibilité, de justifiabilité et d’accessibilité et doivent pouvoir être soumis à un examen, un débat et un contrôle démocratiques. » Tout utilisateur doit pouvoir identifier s’il converse avec un SIA ou une personne et savoir par qui les décisions le concernant sont prises.

PRINCIPE D’ÉQUITÉ :

« Le développement et l’utilisation des SIA doivent contribuer à la réalisation d’une société juste et équitable. » Autrement dit, les SIA doivent permettre de lutter contre les discriminations, les inégalités et la précarité sociale. Aussi, l’accès aux ressources numériques doit être accessibles à chacun.

PRINCIPE D’INCLUSION DE LA DIVERSITÉ :

« Le développement et l’utilisation de SIA doivent être compatibles avec le maintien de la diversité sociale et culturelle et ne doivent pas restreindre l’éventail des choix de vie et des expériences personnelles. » Les SIA ne doivent pas réduire les individus à des identités personnelles figées par le traitement de données. Pour chaque service, l’offre doit restée diversifiée afin de respecter les libertés individuelles.

PRINCIPE DE PRUDENCE :

« Toutes les personnes impliquées dans le développement des SIA doivent faire preuve de prudence en anticipant autant que possible les conséquences néfastes de l’utilisation des SIA et en prenant des mesures appropriées pour les éviter. » Les SIA doivent respecter les critères de fiabilité, de sécurité, d’intégrité et restreindre l’usage des algorithmes pour les domaines sensibles. Les erreurs concernant les SIA et SAAD doivent être partagées publiquement par les institutions publiques et les entreprises concernées.

PRINCIPE DE RESPONSABILITÉ :

« Le développement et l’utilisation des SIA ne doivent pas contribuer à une déresponsabilisation des êtres humains quand une décision doit être prise (crime, délit…). » En cas de problème, si un tort a été infligé par un SIA reconnu fiable, on ne peut pas juger responsable les personnes impliquées dans son développement ou son utilisation.

PRINCIPE DE DÉVELOPPEMENT SOUTENABLE :

« Le développement et l’utilisation de SIA doivent se réaliser de manière à assurer une soutenabilité écologique forte de la planète. » Tout acteur responsable du développement des SIA doit soutenir des projets de développement écologiquement responsable afin de préserver les ressources naturelles, réduire la pollution, les déchets et accroître l’efficacité énergétique en minimisant les émissions de gaz à effet de serre (GES). Ainsi, les SIA doivent minimiser les impacts sur les écosystèmes et la biodiversité à toutes les étapes de leur cycle de vie.

Il est important de développer l’éducation autour de la compréhension de l’écosystème numérique, notamment celui des SIA afin de forger un consentement et d’être dans la capacité de vérifier la pertinence et les paramètres utilisés dans une prise de décision. Cette éducation pourra également permettre aux individus d’acquérir divers savoir-faire pour naviguer dans l’information, protéger les outils et données personnelles, partager du contenu, etc.

Vers une intelligence artificielle responsable ? (1 / 2) 2

L’apprentissage est donc primordial afin de comprendre son environnement, pouvoir agir, critiquer et contester certaines situations. Ceci correspond à la littératie numérique, autrement dit « l’habileté d’un individu à gérer, à comprendre, à intégrer, à communiquer, à évaluer, à créer de l’information et à y accéder de façon sécuritaire et appropriée au moyen des outils numériques et des technologies en réseaux pour participer à la vie économique et sociale. »

Cet apprentissage permet d’opter pour des pratiques environnementales responsables et sensibilise les individus aux coûts énergétiques des SIA. La population pourrait ainsi apprendre à réparer des objets plutôt que de les jeter, ceci afin de limiter les déchets numériques.

Cependant, cette littératie numérique est confrontée aux inégalités d’accessibilité et de contribution à l’information et aux connaissances.

De plus, le calcul prédictif proposé par ces systèmes semble accentuer ces inégalités et produire des discriminations. Par exemple, Amazon traitait leur clients de manière distincte selon différents critères dont leur lieu de résidence et n’offrait pas le service de livraison dans les quartiers où la population était majoritairement afro-américaine.

L’IA a un potentiel notable pour la gestion de l’environnement, elle peut par exemple permettre la surveillance automatique des territoires riches en biodiversité afin de préserver notre planète.

Vers une intelligence artificielle responsable ? (1 / 2) 3

Il existe également des dispositifs d’information sur l’empreinte écologique des produits comme l’écolabel de type 1 (ISO 14024), qui garantie aux consommateurs une information sur la performance environnementale du produit et sur son cycle de vie. Depuis plus de 20 ans, des démarches d’écoconception qui permettent d’intégrer les critères sociaux et écologiques dès la phase de conception et de développement des produits et services augmentent.

Avec l’intelligence artificielle, de nouveaux outils prédictifs pour la transition écologique ont vu le jour. Des technologies numériques offrent déjà des informations sur l’écologie, les circuits courts alimentaires et le télétravail… Dans cette même logique, des SIA offrent des solutions labellisées comme « IA pour la planète » afin de lutter contre la crise écologique. Cette labellisation permet de développer des outils en faveur de l’environnement comme :

  1. Un outil de connaissance prédictive sur les enjeux environnementaux et sociaux comme le changement climatique, la biodiversité et la productivité agricole.
  2. Un outil d’optimisation prédictive pour l’énergie dans les bâtiments.
  3. Un outil permettant de réguler de manière prédictive les effets environnementaux des acteurs économiques.

Ainsi, le traitement d’un grand nombre de données par l’intelligence artificielle peut permettre de mieux comprendre et modéliser l’écosystème terrestre. Pour illustrer, l’agriculture biologique et durable peut être impactée par des changements climatiques extrêmes. Si l’IA pouvait prédire ces changements elle pourrait contribuer à préserver des terres agricoles.

Bien que l’utilisation de l’intelligence artificielle représente un fort potentiel, elle doit être utilisée rigoureusement afin de contribuer de manière significative à l’environnement. Les solutions ont un risque de «dépendance de sentier» autrement dit un « mécanisme social par lequel des décisions technologiques, organisationnelles ou institutionnelles, jugées rationnelles à une époque mais devenues sous-optimales aujourd’hui. »

Vers une intelligence artificielle responsable ? (1 / 2) 4

L’intelligence artificielle peut présenter certaines failles. Par exemple, si un projet de SIA permettait d’optimiser les transports urbains avec un outil de fluidification du trafic, les usagers décideraient-ils d’augmenter leur distance entre leur lieu d’habitation et de travail et ainsi, de polluer plus en participant à l’étalement urbain ? Ceci ferait naître un effet de rebond, autrement dit un « mécanisme par lequel une plus grande efficacité énergétique ou une meilleure performance environnementale des biens, équipements et services, conduit à une augmentation plus que proportionnelle de leur consommation. » Le C40 pourrait créer une communauté permettant de partager des savoirs et expériences sur la lutte contre le changement climatique et les défis avec un potentiel environnemental. Des « open data » pourraient également permettre à divers acteurs de développer des projets innovants sur ces challenges environnementaux avec un coût limité sur les données.

De nombreux instituts prônent une « culture de la donnée » au service de l’écologie avec des apports de connaissances afin que tout individu puisse lire, créer, exploiter et communiquer des données.

Ainsi, par tous ces points, la transition numérique présente aujourd’hui l’une des plus importantes transformations de nos sociétés.


Pour retrouver la seconde partie de l’article, merci de vous référer à ce lien.