Les systèmes d'intelligence artificielle
On peut définir l’IA comme un « champ interdisciplinaire théorique et pratique qui a pour objet la compréhension de mécanismes de la cognition et de la réflexion, et leur imitation par un dispositif matériel et logiciel, à des fins d’assistance ou de substitution à des activités humaines ». Le syntagme « intelligence artificielle » est déjà employé selon le Dictionnaire historique de la langue française (2022) en 1842 dans le roman Horace de George Sand où le narrateur critique le psittacisme de la vicomtesse de Chailly, caractéristique qui n’est pas sans analogie avec l’expression « perroquets stochastiques » introduite par Emily Menon Blender en 2021. Le même dictionnaire signale l’apparition du sens moderne d’« intelligence artificielle » dans L’Ère logique (1959) de Jacques Bureau.
Sign in to Google to save your progress. Learn more
Email *
NORMES
La norme ISO/IEC 22989:2022 (en) décrit les « concepts et terminologie relatifs à l'intelligence artificielle » : l’intelligence artificielle y est définie comme un domaine interdisciplinaire de recherche et de développement de mécanismes et d'applications de systèmes d'intelligence artificielle. La recherche et le développement peuvent concerner bon nombre de domaines comme l'informatique, la science des données, les sciences humaines, les mathématiques et les sciences naturelles. Les systèmes d’intelligence artificielle sont des systèmes techniques qui génèrent des résultats tels que du contenu, des prévisions, des recommandations ou des décisions pour un ensemble donné d'objectifs définis par l'homme. Lesdits systèmes peuvent utiliser diverses techniques et approches liées à l'intelligence artificielle pour développer un modèle destiné à représenter des données, des connaissances, des processus, etc. utilisés pour pouvoir effectuer des tâches. Face à un possible « déluge normatif » sur l'IA, la position de la commission de normalisation 42 Intelligence artificielle de l'Afnor vise à l'identification des priorités normatives. Dans cette démarche française de « priorisation » autour d'une poignée de normes fortement structurantes, il y a un consensus et un volontarisme autour de la notion de trustworthiness (« IA de confiance »), mis en avant dans les travaux au niveau européen (JTC21 du CEN, en réponse à une commande de normalisation de la Commission européenne dans le cadre de l'IA Act). Les prochains enjeux portent également sur deux futures normes ISO (en liaison avec une autre commission de normalisation) autour de la sécurité et de la vie privée dans le cadre de l'IA (ISO/IEC 27090 et 27091).
LEXICOGRAPHIE
Le projet datafranca est à l’origine du grand lexique français de l’intelligence artificielle. Ce commun encyclopédique numérique donne accès à plus de 6 000 définitions sur une plateforme collaborative MediaWiki. Une version baptisée Les 101 mots de l’intelligence artificielle offre un aperçu condensé de ce travail. Constituée de 101 entrées en français et en anglais, elle présente sous forme d’application nomade une sélection des termes les plus fréquemment employés comme l’apprentissage automatique. Sauf mention contraire explicite, tout contenu déposé sur datafranca est disponible pour être réutilisé sous les règles de la licence Creative Commons BY-NC-SA 4.0.
Complément audio : https://datafranca.org/quest-ce-que-lapprentissage-automatique/
HISTOIRE
L’intelligence artificielle remonte dans ses origines aux machines à calculer et aux automates qui n’ont cessé d’être améliorés. Ce domaine de recherche est officialisé en 1956 lors du séminaire au Dartmouth College. Quelques années auparavant Alan Turing décrit en 1950 dans sa publication Computing Machinery and Intelligence, le jeu d’imitation « consistant à mettre un humain en confrontation verbale à l’aveugle avec un ordinateur et un autre humain »1. En février 1951 le premier ordinateur de l’histoire commercialisé et produit en série, le Ferranti Mark-12, voit le jour. Il est également le premier à faire fonctionner un programme informatique de jeu d'échecs, uniquement précédé par le programme d'échecs théorique Turochamp. Le Ferranti est utilisé par Alan Turing pour modéliser des processus de morphogénèse. C’est également au cours de cette décennie, que Rosalind Franklin révèle la structure à double hélice de l'acide désoxyribonucléique (ADN), permettant de comprendre l'ensemble du fonctionnement génétique d'êtres vivants. Il est à noter enfin que la même période voit la publication de La Grande Grammatisatrice automatique (The Great Automatic Grammatizator), nouvelle de Roald Dahl, dans laquelle un ingénieur en mal de créativité littéraire, Adolphe Knipe, élabore une machine pouvant composer des nouvelles et des romans en adaptant le registre, le style, l’intrigue, à la demande de son employeur Mr Bohlen. Tout comme le versificateur dans 1984 ou The Engine de Jonathan Swift les auteurs s’interrogent sur la qualité des contenus produits. Le texte du conteur gallois préfigure pour ainsi dire les interfaces comme ChatGPT qui devient lors de son lancement en 2022 l'une des premières IA génératives mises à disposition auprès du grand public. Enfin, l’effet Matilda ne doit pas faire oublier notamment les découvertes visionnaires d’Ada Lovelace et la création du premier compilateur par Grace Hopper ni les travaux d’Alice Recoque en matière d’IA, au sein de la grande « histoire du numérique »
DÉFINIR L’IA GÉNÉRATIVE
Un système d'intelligence artificielle générative est un système informatique capable de générer du texte, des images ou d'autres médias en réponse à des instructions (ou prompts) unimodales, bimodales ou multimodales rédigées manuellement ou (semi)automatiquement et dont la principale composante est généralement exprimée en langage naturel par l’entremise d’un dialogueur ou chatbot. Le système s’appuie sur des modèles de fondation. Selon Laurence Devillers un modèle de fondation (foundation model), expression introduite par l’université de Stanford, est un modèle de grande taille fondé sur une architecture de réseau de neurones profond, entraîné sur une grande quantité de données non annotées (généralement par apprentissage autosupervisé). Les grands modèles de langue (LLM pour Large Language Model) sont des cas particuliers des modèles de fondation qui sont entraînés sur un corpus de textes introduisant un nouveau paradigme dans le traitement de langue, mais aussi dans le traitement des signaux multimodaux – son, image, vidéo, etc.).
ENJEUX ÉTHIQUES
L’avis du comité national pilote pour l’éthique du numérique (CNPEN) souligne le « lien entre la célérité de l’innovation technologique, le temps limité pour la réflexion sociétale et le poids des intérêts économiques ». Les grands modèles de langage fournissent en outre parfois des résultats inexacts, plus ou moins prononcés, désignés sous le terme d’hallucination. Le texte produit par la machine peut induire différents risques de
manipulations : l’interaction faussement empathique en langage naturel, les biais algorithmiques et sociétaux comme la polarisation, les contenus imprécis ou erronés, l’« invisibilisation » complète ou partielle des sources, les risques d’homogénéisation culturelle au détriment de la diversité.

Un web synthétique
Dans un article sur son blogue (https://affordance.framasoft.org/2023/10/du-web-semantique-au-web-synthetique/) Olivier Ertzscheid souligne le passage du rêve d’un web sémantique à la réalité d’un web presque synthétique : « C’est un web synthétique parce que l’essentiel de ce qui y est discuté comme de ce qui y est vu, est produit par lasynthèse d’algorithmes artificiels et “d’agents” (bots) tout autant artificiels, les premiers
et les seconds convergents au service d’intelligences artificielles opaques et qui malgré leur apparence de rationalité ne sont rien d’autre que des perroquets stochastiques opérant le plus souvent au service d’intérêts économiques ». L’auteur poursuit ainsi : « il faut aller au bout de la métaphore de l’artificialisation et se rappeler ce qu’elle produit à l’échelle des sols ou des milieux naturels quand elle est mise en oeuvre : elle les épuise, elle diminue leur capacité de résilience et elle réduit leur biodiversité. Le web est certes un environnement technique fait de protocoles, de serveurs, d’algorithmes et d’immenses jeux de données ; mais il est aussi et avant tout un écosystème social, informationnel, affectif et cognitif ».

La question de l’alignement
L'alignement des IA fait référence à l'objectif de s'assurer que les systèmes d'intelligence artificielle soient en harmonie avec les valeurs, les objectifs et les besoins humains. Son objectif est de garantir que les IA agissent de manière éthique et responsable, conformément aux attentes humaines. Les principaux défis en la matière  sont liés à la sécurité, la fiabilité, l'écoresponsabilité, le contrôle et l’adaptation des systèmes à de nouveaux contextes. Des chercheurs évoquent un possible comportement de recherche de pouvoir et des manières dont une IA pourrait essayer de l'accroître.
LA DIMENSION ÉCOLOGIQUE
L’impact environnemental du numérique est une autre préoccupation essentielle abordée dans la lettre thématique no16. Le JORF n°0212 du 13 septembre 2023 a publié à cet égard la Recommandation n° 2023-02 du 26 juillet 2023 de l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom) « relative à l'information des consommateurs, par les services de télévision, les services de médias audiovisuels à la
demande et les services de plateformes de partage de vidéos sur la consommation d'énergie et les équivalents d'émissions de gaz à effet de serre de la consommation de données liée à l'utilisation de ces services ». L’enjeu actuel précise l’avis du CNPEN « est de mesurer le coût énergétique, et plus généralement l’empreinte environnementale des systèmes d’IA générative et des modèles de fondation afin de les inscrire dans la
transition écologique ». Une étude récente (novembre 2023) menée par Alexandra Sasha Luccioni, Yacine Jernite et Emma Strubell, révèle des enseignements plus précis :

• les tâches de classification d'images et de textes se situent au bas de l'échelle en termes d'émissions (entre 0,002 et 0,007 kWh pour 1 000 inférences), tandis que les tâches génératives telles que la génération de texte et le résumé utilisent en moyenne plus de 10 fois plus d'énergie pour le même nombre d'inférences (environ
0,05 kWh heures pour 1 000 inférences), et les tâches multimodales telles que le sous-titrage et la génération d'images se situent au sommet de l'échelle ; 

• le modèle de génération de texte le plus efficace consomme autant d'énergie que 16 % de la charge complète d'un smartphone pour 1 000 inférences tandis que le modèle de génération d'images le moins efficace utilise autant d'énergie que 950 charges de smartphone (11,49 kWh) ;

• le coût d’entraînement et l’affinement équivalent, selon la taille du modèle, à 200, voire jusqu’à 490 millions d’inférences mais la popularité d’un modèle peut attirer des millions d’utilisateurs en quelques semaines.

Le programme de technologie en cycle 4 se fait l’écho de cette problématique dans la partie consacrée aux incidences sociétales des objets et systèmes techniques (OST). Il est ainsi envisageable d’opérer en classe une forme de mise en abyme en interrogeant un service d’IA générative sur son impact environnemental, d’évaluer la réponse fournie, éventuellement saisie au format Markdown, pour pouvoir être importée et modifiée dans un logiciel de création de cartes heuristiques. Différents usages sont développés et
proposés au sein de cette lettre.
Activité 1 : A partir du texte précédent et de la lettre (https://eduscol.education.fr/document/39266/download), imaginer les grandes lignes d'une activité pour un élève de CM2 sur l'impact écologique du numérique.
Activité 2 : A partir des 6 leçons suivantes, conclure sur le devenir des mémoires de fin d'études.
UN DILEMME PROFESSIONNEL

Évoquons dans cette perspective deux projets qui témoignent du dilemme que le développement de l’IA pose aux professeurs de philosophie attachés au service public et aux communs numériques. Le premier est développé par un de leurs pairs, à titre heuristique dans le cadre d’un doctorat. « PhiloGPT » est une extension de Google qui s’appuie sur le chatbot éponyme et permet de discuter avec les philosophes du programme, sans remplacer la lecture des textes. « MethodoPhilo » détourne de même l’usage courant du robot en le transformant en un outil de conseil et d’encadrement qui stimule l’intelligence au lieu de la simuler. L’autre projet est développé à titre privé par une équipe d’informaticiens dans le cadre d’un partenariat d’établissement : « Learneway » propose aux professeurs de lycée d’entraîner l’IA qui construira ensuite, à leur demande et à celles de leurs élèves, différents types de cours hybrides sur une plateforme externalisée – du magistral à l’adapté, en passant par les travaux pratiques et les corrigés. L’entreprise doit être économiquement viable et pose la question de l’intérêt que les professeurs auraient à confier leurs données à un prestataire privé, outre celle des droits d’auteurs et de la commercialisation des ressources produites. Le débat sur les modèles économiques des objets numériques (libre, open source, open access, propriétaire ou communs) est renouvelé dans le champ de l'IA ; le risque du contrôle de l'industrie de l'IA par un oligopole, à la faveur d'une réglementation, pourrait faire courir à l'humanité et aux régimes démocratiques des risques politiques et moraux plus grands que ceux qu'elle chercherait à prévenir.
L’ART FRUIT DE L’IA ? CONFRONTER LA NOTION DE GÉNIE, HIER ET AUJOURD’HUI
En marge de la prochaine exposition consacrée à Vincent van Gogh à Auvers-sur-Oise (https://www.musee-orsay.fr/fr/agenda/expositions/van-gogh-auvers-sur-oise). Les derniers mois au musée d’Orsay à l’automne 2023, se déploie un projet d'avatar virtuel de l’artiste hollandais Vincent van Gogh, réalisé en partie sous la direction scientifique de Wouter Van der Veen, secrétaire général et directeur scientifique de l'Institut Van Gogh à Amsterdam. Il permet aux visiteurs de converser avec l’artiste, sa vie, ses oeuvres grâce à l’intelligence artificielle. C’est un Vincent van Gogh prolixe auquel vont être confrontés les spectateurs loin de la légende du martyr solitaire et incompris. Une manière de vulgariser le corpus épistolaire laissé par l’artiste ? Voire de poursuivre la rencontre virtuelle avec la lecture de la correspondance avec Émile Bernard mise en ligne sur Gallica (https://gallica.bnf.fr/conseils/content/vincent-van-gogh) ou de se familiariser avec l’écriture de l’histoire de l’art par le biais de blogs (https://arthenon.com/fr/), particulièrement ceux interrogeant les derniers mois de l’année 1890.

Le mouvement des images
Qu’est-ce que le récit de l’histoire des arts au prisme de l’IA ? Une accumulation, une mise en images en une minute chrono ? L’artiste 3D et photographe amateur Fabio Comparelli est à l’origine d’une séquence d’animation créée grâce à Stable Diffusion (voir ci-dessous), qui génère des images à partir de descriptions. Si le spectateur reste dubitatif devant une avalanche de références et de formes, la réflexion sur l’histoire de l’art
au défi de l’intelligence demeure pertinente. Spectaculaire, démesure, monumentalité sont autant de
notions qu’explorent en 2022, dans la Grande Nef du Centre Pompidou Metz, l’artiste Refik Anadol avec
l’installation immersive Machine Hallucinations – Rêves de nature présentée dans un court documentaire sur la chaîne France 24 (voir ci-dessous). L’intelligence artificielle devient collaboratrice du travail de l’artiste, au même titre que l’équipe pluridisciplinaire de scientifiques. Plus de deux cent millions d’images liées à la nature et disponibles publiquement sont affichées sur une toile numérique de 10 mètres sur 10 mètres, 100 m2 d’images en mouvement permanent offertes au spectateur. Le dossier de presse (https://www.centrepompidou-metz.fr/fr/programmation/exposition/refik-anadol) présente ce processus de travail comme « un ensemble de données [...] traité par un logiciel personnalisé mis au point par le Refik Anadol Studio en collaboration avec l’équipe de recherche quantique de Google AI, qui utilise de nouvelles méthodes d’utilisation des données. Ainsi, l’intelligence artificielle spécule sur d’autres apparences d’images de la nature, au sein d’un ordinateur parmi les plus sophistiqués au monde, capable d’effectuer ses calculs en utilisant directement les lois de la physique quantique, générant de fait un bruit quantique. » La Grande Nef du Centre Pompidou Metz a accueilli quelques années plus tôt en 2013 une exposition consacrée à Parade le rideau de scène de Picasso (https://www.centrepompidou.fr/en/offre-aux-professionnels/enseignants/dossiers-ressources-sur-lart/pablo-picasso/rideau-de-scene-du-ballet-parade) (10,50 mètres de haut, 16,40 mètres de large). Avec les élèves, il est possible d’initier une comparaison entre deux oeuvres aux matériaux, aux formes, aux techniques fort différents et de les rapprocher autour de la notion d’art total.

Des supports pédagogiques possibles
Initier des débats en classe autour de l'Intelligence artificielle grâce à l'écoute de « podcasts » Une série audio de six épisodes L’art au défi de l’intelligence artificielle de la rédaction de France Culture (https://www.radiofrance.fr/franceculture/podcasts/serie-l-art-au-defi-de-l-intelligence-artificielle) propose une lecture sur les bouleversements dans les arts liés au développement de l'intelligence artificielle dans la musique, le cinéma, la photographie (voir portrait de Franck Lecrenay ci-dessous), la peinture et la littérature. Enrichie par l’analyse de spécialistes de l'histoire et de l’économie de l'art, cette série permet de nourrir la réflexion des élèves, de travailler l'argumentation et la lecture d'une oeuvre, notamment en première spécialité histoire des arts, dans le cadre de la thématique La valeur économique de l’art : le marché, l’économie, leurs lieux et leurs acteurs (https://eduscol.education.fr/document/23641/download). Le dernier épisode convoque Léa Saint-Raymond historienne de l’art à la tête de l’Observatoire des humanités numériques de l’ENS. 

Des oeuvres à la loupe, apprendre à exercer son esprit critique grâce à des documentaires La série documentaire Les dessous des images proposée par la chaîne Arte livre des analyses au scalpel dans l'interprétation de l'image. Plusieurs numéros s'avèrent pertinents pour déployer en classe une lecture critique, inscrire la création dans l'histoire des liens troubles entre art et technologie. La toile qui a remporté un premier prix à la Foire d'État du Colorado Théâtre d'opéra spatial par Jason Allen est un exemple d’étude dans le cadre de la thématique en première spécialité Les matières, les techniques et les formes : production et
reproduction des oeuvres uniques ou multiples (https://eduscol.education.fr/document/23629/download). 


Séquence d'animation de Fabio Comparelli
Documentaire France 24
Franck Lecrenay
photographe professionnel, titulaire du Master Qualified European Photographer (MQEP) et lauréat du prix Golden Camera travaille depuis plusieurs années sur la création numérique assistée par les technologies d’intelligence artificielle générative d’images. L’auteur souligne qu’il faut apprendre à « vraiment parler avec la machine » ce qui suppose de soumettre au système, plutôt en langue anglaise, tout un ensemble d’éléments de contenus mais aussi des paramètres spécifiques comme l’ambiance, le type de lumière, les couleurs, le plan de cadrage mais aussi l’émotion. Ce travail d’ingénierie de la requête nécessite plusieurs phases de contrôle et d’affinement, détours et retours, avant d’arriver à un résultat pertinent. Cette première « épreuve » fait ensuite l’objet de
retouches logicielles et de traitement d’amélioration de la résolution de l’image.
Activité 3 :  La forme répétitive dans l’aventure des arts numériques 

Réaliser des boucles et des pavages de figures aléatoires à la manière de l’artiste Vera Molnar. L’occasion de travailler de manière transversale sur la principe de la répétition dans l’art, d’interroger la porosité des disciplines scientifiques et artistiques, d’inscrire in fine la place de l’artiste dans l’histoire des innovations technologiques, à l’aide de la série Pionniers, pionnières du Centre Pompidou (https://www.centrepompidou.fr/fr/videos/video/vera-molnar-angles-de-toute-espece-en-desordre-1971) ou d’un dossier Du virtuel au réel, l’intelligence artificielle s’empare de l’art par l’INA (https://www.ina.fr/ina-eclaire-actu/les-robots-artistes-du-virtuel-au-reel).
Préparer l'activité :
Télécharger thonny ou équivalent (editeur de langage python). Ouvrir le fichier consigne (https://dfichot.fr/L1EFEC/Molnar.pdf). Télécharger également les fichiers python élève ( https://dfichot.fr/L1EFEC/Vera_Molnar_Documents_élèves.zip)
Faire les activités et poster les fichiers python réussis dans votre dossier sur le drive.
Submit
Clear form
Never submit passwords through Google Forms.
This content is neither created nor endorsed by Google. Report Abuse - Terms of Service - Privacy Policy