Faites-vous
une utilisation responsable
de l’IA?
Les entreprises utilisent l’intelligence artificielle (communément appelée « IA ») pour toutes
sortes de choses, notamment l’automatisation
de leurs processus, des campagnes publicitaires, l’amélioration du service aux clients et l’optimisation des chaînes d’approvisionnement.
Que ce soit les dommages physiques/psychologiques ou les pertes matérielles/ financières
Réglementation de l’IA
Il est même possible que la vôtre utilise l’IA sans que vous le sachiez.
LES
DOMMAGES
La LIAD vise à prévenir :
Un large éventail d’obligations pourrait s’appliquer aux concepteurs, développeurs, fournisseurs et gestionnaires de systèmes d’IA :
Par ailleurs, il convient de souligner que l’utilisation responsable de l’IA constitue une bonne pratique d’affaires, que le projet de loi C-27 soit adopté ou non. Envisagez d’élaborer vos propres politiques et principes de gouvernance en matière d’IA afin de gagner la confiance de vos intervenants et de participer activement au dialogue sur le sujet au Canada.
Pour en voir des exemples, consultez la page IA pour l’humanité de Mila.
François Joli-Coeur
Voir la bio
Loi canadienne
sur l'intelligence artificielle et les données: Impact pour les entreprises
Regulating artificial
intelligence: Preparing your business for
the future
4 ways to avoid bias when your
HR agency uses
AI recruitment tools
FJolicoeur@blg.com
T 514.954.3144
Associé
GWray@blg.com
T 416.367.1234
Associé
George Wray
EVila@blg.com
T 416.456.7890
Associée
Edona Vila
Voir la bio
Voir la bio
Lire l’article
Lire l’article
Lire l’article
Par contre, dans ce cas-ci, l’ignorance ne fait pas le bonheur. Des lois canadiennes sur la protection
de la vie privée et les droits de la personne régissent déjà l’utilisation de l’IA dans une certaine mesure.
Le projet de loi C-27, qui n’a pas encore été adopté, comprend notamment la Loi sur l’intelligence artificielle et les données « LIAD », réponse législative robuste aux préoccupations éthiques et liées à la vie privée relatives à l’automatisation des décisions à l’aide de l’apprentissage automatique. Le Canada et l’UE sont parmi les premiers au monde à avoir déposé des projets de loi visant à encadrer l’utilisation de l’IA.
Tout résultat tiré de l’IA qui établirait une distinction sans justification pour un motif de discrimination cité dans la LCDP
LES RÉSULTATS TENDANCIEUX
Afin de vous préparer en vue de l’adoption potentielle de lois touchant l’IA et de vous conformer à celles existantes (p. ex. concernant la protection de la vie privée et le droit de l’emploi), déterminez où vous utilisez l’IA, puis discutez avec vos fournisseurs ou vos équipes internes afin de vous assurer que vous respectez toutes les dispositions législatives existantes et potentielles. Les décisions prises à l’aide de l’IA peuvent-elles avoir une incidence sur le bien-être psychologique ou financier des personnes touchées? Avez-vous pris des mesures pour éviter les préjugés? Comment traitez-vous les enjeux en matière de protection de la vie privée? Si vous pensez à investir dans un nouveau système, veillez d’abord à vous informer sur les risques posés par le projet de loi C-27.
Évaluation des risques pour mesurer l’incidence
des systèmes
Gestion et surveillance des systèmes afin
de cibler ceux à incidence élevée (risque de préjudice ou de résultats tendancieux)
Régime de transparence et production de rapports pour ce qui touche les systèmes
à incidence élevée
et l’utilisation prévue/réelle
Mise en place de mesures pour l’anonymisation
des processus et l’utilisation de données anonymisées
Signalement des préjudices importants au ministre de l’Innovation, des Sciences et de l’Industrie
View bio
ARoss@blg.com
T 403.232.9656
Partner
Alan Ross
View bio
JCocker@blg.com
T 416.367.7283
Partner
Jonathan Cocker
View bio
JPariseau@blg.com
T 123.456.7890
Partner
Julie-Anne Pariseau
Show us the money: Net zero financing for Canadian Businesses
Read now
2030 Emissions
reduction plan and
Canada’s journey
to net zero
Read now
Canada’s national
hydrogen strategy
Read now
Many organizations will be somewhere in between, eager to identify opportunities but unsure where to start.
Emissions reductions by sector
This pledge will have real impacts on business as usual at home. Legislative changes, stricter reporting, penalties and incentives — particularly tax credits — will affect every business, from big banks to the corner store.
As of Oct 2022, Canada has:
As of September 2022, 136 countries had established some kind of net zero emissions target. Canada has committed to reducing greenhouse gas emissions
40 per cent below 2005 levels by 2030 and hitting net zero by 2050.
Electric transportation, sustainably-powered industry, green infrastructure, smart cities and a circular economy — this is the future if we are to reach net zero by 2050.
Where are you on the pathway
to net zero?
Net Zero
This pledge will have real impacts on business as usual at home. Legislative changes, stricter reporting, penalties and incentives — particularly tax credits — will affect every business, from big banks to the corner store.
To get ready for potential AI legislation and existing laws (e.g., privacy and employment laws), identify your processes that use AI, then ask questions of your
AI providers or internal teams to ensure compliance with existing and proposed legislation. Could the decisions these processes make affect someone’s psychological or financial wellbeing?
Are steps taken to avoid bias? How are privacy concerns addressed? If you’re in the market for a new system, find out what its risks are in light of the potential new AI framework before investing in it.
Article en anglais
Article en anglais
COMMUNIQUEZ AVEC NOTRE ÉQUIPE
AUTRES PISTES
DE RÉFLEXION
CONTACTEZ-NOUS
AUTRES ARTICLES
CONTACTEZ-NOUS
AUTRES ARTICLES
Que ce soit les dommages physiques/psychologiques ou les pertes matérielles/ financières
LES
DOMMAGES
Tout résultat tiré de l’IA qui établirait une distinction sans justification pour un motif de discrimination cité dans la LCDP
LES RÉSULTATS TENDANCIEUX
| Article en anglais
COMMUNIQUEZ AVEC NOTRE ÉQUIPE
AUTRES PISTES
DE RÉFLEXION
Reporting material harm to the Minister
5
/ 5
Establishing measures with respect
to data anonymization process and
the use of anonymized data
4
/ 5
Transparency and notice for
high-impact systems regarding intended use and actual use
3
/ 5
Mitigation and system monitoring
for high-impact systems (regarding potential harm or biased output)
2
/ 5
Risk assessment to determine if the system is “high-impact”
1
/ 5