Le déficit commercial du Canada a rétréci à 1,7 milliard $ en septembre Le déficit commercial du Canada a rétréci à 1,7 milliard $ en septembre Wednesday, November 4, 2015 24380 OTTAWA - Le déficit commercial du Canada a rétréci à 1,7 milliard $ en septembre, a indiqué mercredi Statistique Canada, alimentant l'espoir que l'économie du pays puisse commencer à tirer profit de la baisse du dollar canadien.
Le CCS repense son identité et devient le CÉCS Le CCS repense son identité et devient le CÉCS Wednesday, October 21, 2015 33353 Depuis le samedi 17 octobre 2015, le Conseil de la Coopération de la Saskatchewan est officiellement devenu Conseil économique et coopératif de la Saskatchewan (CECS). Un changement destiné à spécifier le rôle et la mission du l’organisme au sein de la communauté.
7Shifts lauréate du prix BRAVO entreprises 2015 7Shifts lauréate du prix BRAVO entreprises 2015 REGINA - Journée faste, le samedi 17 octobre 2015, pour le Conseil de la Coopération de la Saskatchewan. Le CCS est officiellement devenu le... Wednesday, October 21, 2015 35482
Subway débarque à Gravelbourg Subway débarque à Gravelbourg GRAVELBOURG - Un restaurant Subway vient d’être inauguré à Gravelbourg. L’arrivée de la chaîne de... Thursday, October 8, 2015 33379
Face à face entre candidats à l’embauche et Maple Leaf Face à face entre candidats à l’embauche et Maple Leaf SASKATOON - Le Conseil de la Coopération de la Saskatchewan a organisé une mini-foire de l’emploi à Saskatoon, le... Thursday, October 1, 2015 31313
Le CCS enrichit son aide aux chercheurs d’emploi Le CCS enrichit son aide aux chercheurs d’emploi Outre les foires, le Conseil de la Coopération de la Saskatchewan (CCS) a lancé des ateliers pour mieux appréhender le... Thursday, September 17, 2015 29160
L’après-pétrole dans l'Ouest canadien: entre déni et peur de l’inconnu L’après-pétrole dans l'Ouest canadien: entre déni et peur de l’inconnu « Le pétrole nous a donné une période de croissance économique mais il n’en reste rien, soutient la... Thursday, August 27, 2015 28799
Le CCS attend plus de justice avec les anglophones Le CCS attend plus de justice avec les anglophones REGINA - Le Conseil de la Coopération de la Saskatchewan espère que le pouvoir issu des prochaines élections, épaulera... Thursday, August 20, 2015 30016
Friday, June 26, 2015 Le français, un atout de taille en affaires Le Réseau de développement économique et d’employabilité (RDÉE) Canada a profité de la tenue de son assemblée générale annuelle à Winnipeg, à la mi-juin, pour organiser un colloque portant sur la francophonie économique.
Le CCS devient le Conseil économique et coopératif de la Saskatchewan Thursday, June 18, 2015 Le CCS devient le Conseil économique et coopératif de la Saskatchewan REGINA - Les années se suivent mais ne se ressemblent pas pour l'association fransaskoise qui s'occupe d'économie, le Conseil de la coopération de la Saskatchewan (CCS).
Julie Gillet, chroniqueuse – Francopresse / Wednesday, January 22, 2025 / Categories: Société, Science et technologie, Chroniques L’illusion de la neutralité de l’IA On dit souvent que l’intelligence artificielle (IA) est l’avenir. Mais si cet avenir amplifiait en réalité les inégalités d’hier? À l’occasion de la Journée de la protection des données, le 28 janvier, interrogeons-nous sur ces technologies qui peuvent transformer nos préjugés en normes. L’autre jour, en testant une application de reconnaissance vocale, j’ai été prise de court. «Désolé, je n’ai pas compris. Pouvez-vous répéter?», insistait l’intelligence artificielle (IA), incapable d’interpréter mon accent mi-belge mi-chiac. Cela m'a fait sourire, parce que mon compte ChatGPT est configuré avec l'accent des journalistes de Radio-Canada pour me répondre. Mais cela m’a aussi un peu effrayée : si moi, avec mes intonations somme toute assez banales, je passe déjà sous le radar des machines, qu’en est-il de ceux et celles dont les accents, les dialectes ou même les langues minoritaires n’ont jamais été pris en compte? Que deviennent les voix qu’on ne reconnait pas, qu’on ne transcrit pas, qu’on oublie dans les bases de données? Reconnaissance faciale : l’IA qui voit flou Prenons un exemple emblématique : la reconnaissance faciale. Cette technologie a souvent montré des failles majeures, notamment dans l’identification des minorités. Une étude de 2018 menée par le MIT et l’Université Stanford a révélé des disparités alarmantes. Des systèmes avaient un taux d’erreur de 34,7 % pour les femmes noires, contre moins de 1 % pour les hommes blancs. Un écart qui trouve sa source dans des bases de données biaisées, parce qu’elles sont saturées d’images d’hommes blancs. Bien que des progrès aient été faits depuis lors, les biais n’ont pas totalement disparu, ce qui entraine des conséquences parfois dramatiques. Selon une enquête du Washington Post, au moins huit personnes, principalement des personnes noires, ont été arrêtées à tort à cause d’erreurs d’identification générées par des systèmes d’IA ces dernières années aux États-Unis. Christopher Gatlin, par exemple, a été faussement accusé dans le Missouri en 2021 après qu’un logiciel l’a identifié à partir d’une image floue. Sans lien avec le crime ni passé violent, il a croupi 16 mois en prison avant que les accusations ne soient abandonnées. Un autre cas choquant est celui de Porcha Woodruff, une femme enceinte de huit mois, arrêtée à Detroit en 2023 pour piraterie routière, une agression qu’elle n’avait pas commise. Identifiée à tort par un système de reconnaissance faciale, elle a été placée en détention malgré que ses contractions s’étaient déclenchées. Ces exemples ne sont pas de simples incidents isolés. Ils reflètent une réalité inquiétante : la confiance aveugle dans des technologies biaisées peut non seulement reproduire, mais aussi amplifier les discriminations systémiques, mettant des vies innocentes en danger. Des CV effacés par un algorithme En 2018, Amazon a dû abandonner son outil de recrutement automatisé après une révélation troublante : l’algorithme rejetait systématiquement les candidatures de femmes pour des postes techniques. Pourquoi? Parce que l’outil avait été formé sur dix ans de données internes où les hommes dominaient largement ce type de postes. En s’appuyant sur ces exemples biaisés, l’algorithme avait appris à associer la réussite à un genre spécifique et à discriminer les candidatures féminines. Dans le secteur bancaire, les algorithmes d’évaluation du crédit posent également problème. Une enquête menée par The Markup en 2021 a révélé que les demandes de prêt hypothécaire faites par des personnes noires ou hispaniques étaient plus souvent refusées que celles de personnes blanches ayant un profil financier similaire. Le domaine médical n’y échappe pas non plus. Un algorithme utilisé pour prédire les besoins en soins intensifs avait tendance à sous-estimer les risques des populations noires. En 2019, une étude a montré que cet algorithme, largement utilisé aux États-Unis, privilégiait les personnes blanches en raison de son critère d’analyse principal : les couts médicaux antérieurs. Les personnes noires, ayant pendant longtemps moins accès aux soins, voyaient ainsi leurs besoins sous-évalués, ce qui limitait leur accès à des traitements cruciaux. On le voit bien : loin d’être neutres, les systèmes d’intelligence artificielle reproduisent les inégalités inscrites dans les données qui les nourrissent. Au lieu de corriger les discriminations, ces outils peuvent les renforcer sous couvert d’une fausse neutralité technologique. La technologie, une question de choix À l’occasion de la Journée internationale de la protection des données, il est essentiel de rappeler que protéger nos données, c’est aussi protéger nos droits. Nous ne pouvons pas laisser les technologies – et surtout les personnes qui les créent – façonner notre avenir sans un regard critique et une action déterminée. L’intelligence artificielle reflète nos choix et nos biais. Mal encadrée, elle peut renforcer les discriminations et mettre en danger les plus vulnérables. Mais des solutions concrètes existent : diversifier les équipes qui conçoivent ces outils, auditer les algorithmes comme on audite les comptes d’une entreprise et écouter les voix des personnes les plus touchées. Des avancées sont déjà en cours. Par exemple, des villes comme San Francisco, Portland et Boston ont interdit l’utilisation de la reconnaissance faciale par la police pour prévenir les abus. Ces initiatives montrent que le changement est possible lorsque des citoyens et citoyennes, des spécialistes et des responsables politiques unissent leurs forces pour exiger justice et transparence. L’IA n’est et ne sera jamais plus que ce que nous en faisons. Outil d’oppression ou levier de progrès : à nous de choisir. +++NOTICE BIOGRAPHIQUE+++ Originaire de Belgique, Julie Gillet est titulaire d’une maitrise en journalisme. Militante éprise de justice sociale, voici près de quinze ans qu’elle travaille dans le secteur communautaire francophone et s’intéresse aux questions d’égalité entre les genres. Elle tire la force de son engagement dans la convergence des luttes féministes, environnementales et antiracistes. Elle vit aujourd’hui à Moncton, au Nouveau-Brunswick. Print 4896 Julie Gillet, chroniqueuse – FrancopresseGhita Hanane Other posts by Julie Gillet, chroniqueuse – Francopresse Contact author Comments are only visible to subscribers.