Cycle de conférences Cours "Théories de la culture et des médias" 2024 (Olivier Voirol, Olivier Glassey, Valentine Girardier)

Master en Humanités Numériques et Master en Sciences Sociales. Cours "Théories de la culture et des médias" 2024 (Olivier Voirol, Olivier Glassey, Valentine Girardier).

 

La question de l’intelligence artificielle est au cœur des préoccupations de l'espace public actuel et elle suscite moult remous. Son application au sein des secteurs d’activité les plus divers (travail, justice, santé, économie, éducation, sport, journalisme, etc.), fait (re)surgir le spectre de la machine capillaire douée d'une calculatoire propre, nourrie de capacités hors pair d'analyse, d’apprentissage et de décision.

Pour les uns, l’IA apparaît comme une promesse d’efficacité d’une rationalité de l’automation propre à revigorer le développement du capitalisme. Pour les autres, elle actualise une menace majeure sur le mode de vie des sociétés modernes démocratiques, portées par l’aspiration à la raison et à l’autoréflexion, et fondée sur les aptitudes collectives à moduler les choix et les pratiques. Sa progression fulgurante fait surgir les craintes d'une « société automate » (Stiegler) régie par des robots autonomisés sur lesquels les êtres sociaux perdent toute capacité d’action et de décision. La logique automate aliénant l’agir humain est d’ailleurs aux antipodes de l’idée d’espace public sur laquelle reposent les sociétés modernes depuis le 18 siècle. Un idéal selon lequel les individus sont des êtres autonomes aptes à faire « usage public de leur raison » (Kant) en exerçant avec d’autres leurs capacités d'enquête, de jugement et de critique.

Lieu de contre-pouvoir de la société face à l’État et à l’économie, mais aussi lieu d'expériences, de sensibilité, de liens sociaux, de délibération et de critique, l’espace public est sous tension. Ce qui réveille le spectre d'une « société automate » portée par les mutations numériques, en actant son incapacité à « reprendre la main » sur l’IA, en la soumettant à une culture critique, aux régulations éthico-juridiques et à l’agir politique.

Lundi 21 octobre 2024 – 16h15-18h00. UNIL, Internef 272.

Maxime Ouellet (Ecole des médias, UQAM, Montréal).

Titre : La dialectique de la raison algorithmique : Pour une théorie critique de l’intelligence artificielle

Résumé de l’intervention : À partir de la Théorie critique développée initialement par l’École de Francfort, cette présentation a comme ambition de saisir les fondements sociohistoriques des catégories centrales qui sont au fondement de l’intelligence artificielle : la communication, la commande, le contrôle et l’information. Nous situerons tout d’abord les développements de l’intelligence artificielle dans le sillage des premiers travaux issus de la cybernétique dans le cadre de ce qui était qualifié à l’époque de capitalisme monopoliste d’État. Nous poserons ensuite la question visant à savoir si les mutations contemporaines du capitalisme rendues possibles grâce aux avancées dans le domaine de l’intelligence artificielle tel que le machine learning et le deep learning remettent en question la possibilité de développer une théorie critique de la société.

Lundi 11 novembre 2024 – 16h15-18h00. UNIL, Internef 272.

Katia Schwerzmann (Thyssen Fellow au Kulturwissenschaftliches Institut à Essen, Allemagne)

Titre : L’intelligence artificielle comme projet de normativisation : vers de nouvelles formes de pouvoir et de subjectivité

Résumé de l’intervention : L’intelligence artificielle, dans sa forme actuelle, relève d’un projet de normativisation, participe à la constitution de nouvelles formes de pouvoir et de subjectivité. Il s’agira dans un premier temps de comprendre les implications de la transition d’un paradigme de programmation informatique basé sur la règle vers celui du machine learning, ou apprentissage automatisé, fondé sur l’exemple. Bien que ces deux paradigmes coexistent dans la pratique, cette transition a des implications épistémiques, éthiques et politiques importantes : règles et exemples régulent en effet les conduites humaines de manière différente. Contrairement à l’autorité explicite et prescriptive imposée par les règles, les modèles de machine learning produisent une autorité difficile à contester car basée sur des normes implicites en constante mutation. J’examinerai dans un deuxième temps comment les « large language models » tels que ChatGPT ou Claude produisent une forme de subjectivité spécifique – le « je » prononcé par ces modèles – via des opérations normatives d’« alignement » dont le but est de résoudre d’un même coup des problèmes techniques et éthiques. Ce « je » qui se positionne en porteur de savoir fait la performance d’une conception spécifique du savoir et de la subjectivité qu’il s’agira d’analyser de façon critique.

Mercredi 13 novembre 2024 – 12h15-14h, UNIL, Géopolis 2230.

Mark Hunyadi (Université de Louvain-La-Neuve, Bruxelles).

Titre : Esprit et information

Résumé de l’intervention : Intelligence artificielle et numérique relèvent du même paradigme scientifique : la cybernétique. Et de fait, dans le monde numérique, chaque individu est appelé à devenir, malgré lui, un opérateur cybernétique. Quel impact cela a-t-il sur la vie de l'esprit, qu'il soit individuel ou collectif ?

Lundi 18 novembre 2024 – 16h15-18h00. UNIL, Internef 272.

Thomas Berns (Université libre de Bruxelles-ULB).

Titre : Nouvelles normativités et annulation des possibilités de résistance

Résumé de l’intervention : Je souhaiterais analyser la résistance et ses conditions à l’aune de ce qui la contredit, entendu non pas comme un irrésistible qui s’impose à ce qui pourrait résister, mais plutôt comme ce qui annule ou évite la possibilité même de la résistance. Le déploiement de nouvelles formes de normativité non juridique serait hautement indicatif d’une telle contradiction de la résistance par la négation de sa possibilité. En partant de l’exemple de la gouvernementalité algorithmique, et en confrontant les différentes caractéristiques des normativités à l’œuvre dans ce cadre aux normativités juridiques, je montrerai que ce sont les conditions même de la résistance qui sont mises en jeu.

Lundi 25 novembre 2024 – 16h15-18h00. UNIL, Internef 272.

Antòn de Macedo, artiste genevois et fondateur du collectif Aristide, et Paul Hegi, photographe diplômé de l’Ecole cantonale d’Art de Lausanne (ECAL).

Titre : 3038 (50.97) un art de machine ?

Résumé de l’intervention : Le duo d'artistes Paul Hegi & Antón de Macedo a publié cette année un livre d'art entièrement généré par l’intelligence artificielle (IA). Ce projet qui a nécessité deux ans de travail a dû relever de nombreux défis tels que développer un langage probant avec la machine, créer un corpus de plus de 1'000 images avec éléments graphiques au service du narratif, mettre au point un nouveau flux de travail et d’imprimer sous forme d’ouvrage des images dédiées à la luminosité de l'écran. Ce livre soulève de nombreuses questions dans son contenu, tout d'abord, en posant la question de notre rapport à la technologie et de l'extinction du vivant, et ensuite dans son procédé reliant IA et création artistique. Le duo d'artiste a créé ce livre en premier lieu comme un outil-témoignage d'une époque, qui leur permet de continuer à développer l'indispensable débat autour de l'IA. Langage avec la machine, créativité, intérêt des images produites par ordinateurs, droit d'auteur, les récurrences de sémiotique visuelle, etc. C'est pourquoi, à la suite du livre, le duo d'artistes a créé plusieurs expositions tirées de ce dernier, afin d'expérimenter différentes façons d'exploiter ce corpus d'images

Lundi 2 décembre 2024 – 16h15-18h00. UNIL, Internef 272.

Ksenia Ermoshin (Citizen Lab de l’Université de Toronto et CNRS).

Titre : Apprendre à interdire : gouvernance par le prompt et la censure des IA génératives

Résumé de l’intervention : La démocratisation d’accès aux outils de génération d’images comme Dall-E, Midjourney ou Stable Diffusion, a suscité le besoin de régulation et d’encadrement des usages de ces IAs. Nous appelons cela “gouvernance par le prompt” qui consiste à interdire les usages de certains mots-clés dans les prompts textuels. Ces prompts interdits évoquent le plus souvent des registres lexicaux qui renvoient à la violence, nudité, sexualité, sexisme, racisme. Or, dans d’autres cas, les interdictions peuvent également concerner des personnalités politiques, des noms de pays ou de régions, des évènements historiques ou même des identités sexuelles.

Cette intervention est basée sur une enquête de terrain comparative autour des trois IA génératives à destination du grand public : le projet chinois ERNIE-ViLG, le projet russe Kandinsky XXL et le projet américain DALL-E. Elle explore les impacts de facteurs culturels et politiques ainsi que des modes de production de ces IA et leurs licences sur les formes de censure et de « gouvernance par le prompt ». L’enquête explore également la propagation de pratiques de ruse et bricolage collectives développées par les utilisateurs face à la censure. Tout d’abord, pour mettre la lumière sur l’existence même des listes noires de prompts, mener des enquêtes collectives de “reverse engineering” afin de rétablir ces listes et les partager avec les autres. Ensuite, pour trouver des façons de contourner ces interdictions, surtout par les artistes visuels.

Partagez: