Un cryptographe américain de renom est attendu à l’UdeM

En 5 secondes Affilié à l’Université Harvard et à une entreprise technologique cofondée par l’inventeur du World Wide Web, Bruce Schneier donnera une conférence publique gratuite le 29 janvier au campus MIL.

Cryptographe, universitaire et blogueur, Bruce Schneier est une figure reconnue à l’échelle internationale dans les domaines de la sécurité informatique et de l’intelligence artificielle (IA). Il sera de passage à l’Université de Montréal, où il donnera une conférence publique gratuite. 

Bruce Schneier est chercheur associé au Berkman Klein Center for Internet & Society de l’Université Harvard et collaborateur d’Inrupt, une entreprise technologique cofondée par Tim Berners-Lee, l’inventeur du World Wide Web. Âgé de 63 ans, il est l’auteur de 14 ouvrages, dont le succès de librairie A Hacker’s Mind

La conférence aura lieu le 29 janvier à l’auditorium du campus MIL et sera également diffusée en direct sur Zoom. L’inscription est obligatoire. 

Intitulée «The coming AI hackers», elle portera sur les nouvelles formes de vulnérabilités que l’intelligence artificielle pourrait exploiter au sein de nos sociétés. 

La conférence, donnée en anglais avec interprétation simultanée en français, est organisée par le Centre international de criminologie comparée de l’UdeM, en collaboration avec le Centre de recherche en droit public et la Chaire L. R. Wilson. 

À la veille de son passage à Montréal, Bruce Schneier nous a fait part de quelques réflexions sur les sujets qu’il abordera.

Questions Réponses

Vous vous définissez comme un «technologue d’intérêt public». Vous soutenez que les systèmes d’intelligence artificielle commencent à exploiter des failles dans nos systèmes sociaux, économiques et politiques. Pourquoi? 

Les systèmes d’IA n’ont pas nos repères humains quant à ce qui est acceptable ou non. Lorsque nous leur confions un problème, ils explorent des solutions auxquelles nous ne penserions pas spontanément. Cette capacité à sortir des cadres établis les rend très efficaces – et parfois très créatifs. 

Mais elle les amène aussi à repérer des failles dans nos systèmes sociaux, économiques et politiques. Ces failles existent souvent parce que nous formulons des règles imparfaites ou incomplètes. L’IA les détecte, puis ce sont des humains qui les exploitent, comme nous le faisons déjà avec certaines échappatoires fiscales ou règlementaires. 

Ces risques sont-ils accentués dans le contexte politique actuel aux États-Unis? Et concernent-ils aussi d’autres pays?

Les technologies d’IA amplifient le pouvoir de ceux et celles qui les utilisent. Dans mon plus récent livre, Rewiring Democracy, je montre que l’IA peut servir à rendre la démocratie plus équitable, plus participative et plus adaptative dans plusieurs régions du monde. 

Mais cette même technologie peut aussi être utilisée pour affaiblir les mécanismes démocratiques. Le problème n’est pas l’IA en soi, mais l’usage qu’en font les humains. Cela dit, l’IA accroît considérablement leur capacité d’action – pour le meilleur comme pour le pire. 

Quel rôle souhaitez-vous jouer dans ce contexte? Peut-on imaginer qu’un jour une IA devienne elle-même une «Cassandre»?

Je ne me vois pas comme une Cassandre. Dans le mythe, elle annonce les catastrophes sans être crue. Or, selon le public auquel je m’adresse, je suis parfois perçu comme très optimiste, parfois comme très critique à l’égard de l’IA. 

Il s’agit d’une technologie qui transformera profondément nos sociétés. Si certains effets à court terme sont prévisibles, les conséquences à long terme demeurent beaucoup plus difficiles à prévoir. Plutôt que d’adopter une posture alarmiste ou enthousiaste à tout prix, nous devons rester lucides et mettre en place des mécanismes de régulation afin d’orienter l’IA vers des usages plus sûrs, plus utiles et plus démocratiques.

Partager