Author Archives: Exquis Cadavre

Inbuilt Biases

In Pictures: Black Artists Use A.I. to Make Work That Reveals the Technology’s Inbuilt Biases for a New Online Show

In an act of “defiant visibility,” Black artists are telling their stories with A.I. despite its obvious shortcomings.

An online exhibition of artworks by Black artists from Africa and its Diaspora explores the misrepresentations of Black identity by A.I., which they say offers “a fragmentary, perhaps even violent, picture.”

As is now well understood, data, and consequently A.I., reproduces the same human biases that are ever-present in our everyday real lives. In response, “In/Visible” on the digital art platform Feral File brings together work that is “defiantly visible” by Black artists who are using A.I. to tell stories despite its inevitable shortcomings.

“Black artists using A.I. today have to work harder than their white counterparts to get results that they feel accurately represent them,” Senegalese curator Linda Dounia told Artnet News. “They achieved this with persistence and stubbornness, endlessly re-prompting, correcting distortions, and editing out stereotypes. While Black artists should be celebrated for the incredible persistence they show using a tool that barely understands them, it really shouldn’t be this hard for them to participate in the emergence of new technologies.”

Classic examples of A.I. bias in Dounia’s experience include face and body distortions, lack of detail or definition of features like hair and inability to understand cultural references like types of braid or attire. “A prompt about a ‘building in Dakar’ will likely return a deserted field with a dilapidated building while Dakar is a vibrant city with a rich architectural history,” she also noted of A.I.’s replication of common stereotypes.

“For a technology that was developed in our times, it feels like A.I. has missed an opportunity to learn from the fraught legacies that older industries are struggling to untangle themselves from,” she added. “‘In/Visible’ is a way for Black artists to feel less lonely in their experience of A.I., to have their challenges expressed in a way that resonates materially and emotionally, to reject the normalization of their exclusion in emerging technologies.”

In her curatorial statement, Dounia further elucidated the ways in which data fail to adequately capture ambiguity, while also failing to offer an “objective” reflection of our reality. “Logical measurements of the mysteries of the universe and instruments capable of pulverizing elusiveness to its most objective bits,” is how she described data. “Yet, what we measure, and where and how we measure it, are affected by who we are and our positionality relative to others.”

“In/Visible” is currently on view on Feral File. Preview works from the exhibition below.

 

Chantier IA

SPOROBOLE: Appel à projets pour résidence 

Soutenu par le CALQ, le Chantier IA est un nouveau cycle de réflexion et d’accompagnement à la création artistique autour des enjeux d’intelligence artificielle (IA) qui s’étendra jusqu’en 2026.

ÉNONCÉ GÉNÉRAL

Le développement de l’intelligence artificielle a occupé une grande partie des conversations des derniers mois. La sortie de ChatGPT et des autres algorithmes génératifs qui produisent des images, des vidéos, des scénarios de films, des plans de cours ou qui réussissent des examens de niveau universitaire entraîne une série de questions fondamentales sur la place de l’être humain dans un monde où les machines peuvent faire de nombreuses tâches complexes et créatives. Au-delà de ces questions existentielles, les algorithmes génératifs de type LLM (Large Language Model) soulèvent des enjeux liés à la propriété intellectuelle, à la créativité humaine et au rôle même de l’art.

Inutile de se mettre la tête dans le sable : même si ces algorithmes sont actuellement contrôlés par quelques corporations qui obéissent à un rythme de lancement effréné sans tenir compte des risques potentiels de leur IA, refuser ces technologies ne ralentira ni leur développement ni leur déploiement. D’ailleurs, nous estimons que les artistes ont un rôle important à jouer dans la compréhension des potentialités de l’IA et dans la construction d’un rapport critique à ces golems contemporains. Nous sommes d’avis que les artistes ont la capacité de déplacer ces questions sur le terrain de la représentation, d’offrir une distance critique entre le monde humain et ces technologies artificielles, et de participer au développement d’une saine connaissance des enjeux que soulèvent déjà ces robots pour lesquels, la porte du langage naturel, a ouvert une voie nouvelle vers la psychée humaine.

Il est difficile d’évacuer ce qui relève de la mythologie ou de l’imaginaire collectif lorsqu’on cherche à évaluer les impacts d’une telle révolution technologique. Un futur dans lequel l’intelligence artificielle disposerait d’une conscience ne s’envisage que dans un rapport de simulacre où l’humain attribue un caractère anthropomorphe à un algorithme. Il en va de même du fantasme d’immortalité que font miroiter les nouvelles technologies par la possibilité d’une greffe, voire d’une fusion, de l’humain avec la machine éloignant ainsi le premier de ses émotions et rapprochant la seconde d’une conscience. De l’espoir apporté par un solutionnisme technologique à la paranoïa, le spectre d’émotions face à l’IA est chaotique, c’est pourquoi il faut ouvrir de toute urgence un espace à distance du monde, un espace où les artistes regardent et réfléchissent à la machine pour ce qu’elle est, pour ce qu’elle peut et ne peut pas faire, pour la montrer nue, pour mettre en lumière la mythologie qui s’est construite autour d’elle depuis que nous l’avons renommée intelligence artificielle en lieu et place de LLM ou d’algorithmes d’apprentissage profonds. Il est urgent que les artistes s’en mêlent et portent sur ce nouveau monde le regard particulier que seules les œuvres d’art peuvent offrir.

Pour 2023 – et jusqu’en 2026 – nous lançons un tout nouveau cycle de réflexion et d’accompagnement à la création artistique autour des enjeux d’intelligence artificielle (IA). L’automatisation algorithmique touche aujourd’hui presque toutes les sphères de notre société, et ce, souvent à notre insu parce qu’elle est camouflée dans la black box de nos dispositifs technologiques. Comme mentionné plus haut, c’est un domaine qui se déploie et se complexifie actuellement en mode accéléré. Aussi il nous semble essentiel d’y accorder un temps d’attention soutenue afin de comprendre et de s’approprier les outils liés à cette technologie, et de dérouler le fil réflexif qui peut s’en dégager.

À travers une série de résidences artistiques et d’activités connexes, notamment des ateliers et des expositions, Sporobole souhaite contribuer au développement des connaissances sur l’IA et les algorithmes. Il s’agira ainsi de réfléchir au rôle de ces derniers, non seulement à leur fonction assumée, mais aussi à leur agenda caché; de détourner leur usage prescrit; d’explorer leur potentiel à travers un déplacement situationnel et contextuel; d’approfondir notre posture critique et éthique face aux algorithmes; d’envisager des modalités possibles de « cohabitation ». Par ailleurs, une approche de type co-construction des connaissances sera mise de l’avant à travers certaines résidences où la notion de transfert des savoirs sera particulièrement valorisée.

Editions Volumiques

 

Étienne Mineur is at Les Editions Volumiques.

1er Juillet 2013 

Depuis quelques mois, j’ai la grande chance de rencontrer, lors d’intervention concernant les IA et leurs bonnes utilisations (j’espère !), de nombreux designers exerçant dans des champs totalement différents du mien (parfum, design sonore, design de montre, de bijoux, de souliers, de baskets, de trains, de véhicule automobile, de vêtements, d’objets, textiles…) et voici les tendances que je peux voir se développer durant ces derniers mois (principalement sur la génération d’image).

• L’artisanat prend de la valeur, avec une mise à l’honneur de l’analogique face au numérique. L’image numérique seule perd de sa valeur (au revoir les Nft 🙂 ), il est actuellement tellement facile de produire des images que cette surabondance fait perdre toute valeur à ces productions numériques (et aussi notre naïveté par rapport aux images, qui dorénavant sont toutes potentiellement « fausses »).

• Les archives sont précieuses et surtout elles deviennent techniquement un «carburant» pour créer un futur probable. C’est particulièrement flagrant dans le domaine du luxe et de la mode. En effet, afin d’entrainer des IA pertinentes et originales, de grandes sociétés numérisent leurs archives et les font analyser par des IA, qui sont ensuite capables de générer des images cohérentes en relation avec leurs archives. Ces IA entrainées sur un corpus propriétaire deviennent un « trésor » unique pour ces sociétés.

D’ailleurs, un nouveau métier apparait, mélangeant iconographie et mathématiques (pour simplifier), c’est un profil capable de créer des bases de données bien structurées afin d’entrainer des IA de manière pertinente (c’est la clé essentielle).

• Pour chaque profession, l’IA arrive à différent moment du processus de création (il faut le trouver). Elle ne remplace pas les métiers de la création, mais aide (on parle d’intelligence complémentaire) certains aspects des tâches à effectuer.

• Deux types d’IA se développent : une de type généraliste comme Midjourney, qui permet de « délirer » et des IA « sur mesure » entrainée sur des corpus locaux propriétaire (et offline) permettant controler très précisément les images. —> pour résumer, nous avons Midjourney (pour la partie «moodboard» et divagation / puis IA propriétaire entrainée pour un contrôle plus précis / puis Photoshop pour les retouches.

• les IA s’infiltrent très rapidement dans nos outils de production (avec l’exemple de PhotoShop Beta qui intègre de manière très fluide et intelligente ces IA dans le flux de production), mais aussi dans nos emails, dans l’écriture de code informatique…

• Les étudiants connaissent tous (ceux que je connais !) ces IA, testent et expérimentent joyeusement. Les étudiants qui sortent du Bac et rentrent en prépa connaissent beaucoup mieux les IA que les outils graphiques traditionnels. Il y a un gap assez étonnant entre des étudiants de 18 ans et ceux de 20 ans (qui ont déjà pratiqué les arts graphiques sans les IA).

• Les écoles commencent à sensibiliser les corps enseignants à ces nouveaux outils (la HEAD – Genève, Haute école d’art et de design ou Ècole intuit.lab par exemple).

Le Plus Grand Pillage de l’Histoire de l’Humanité

Pour Naomi Klein, les IA organisent “le plus grand pillage de l’histoire de l’humanité”

Au milieu du déluge de polémiques inspirées par le lancement précipité des technologies dites “d’intelligence artificielle” (IA), une obscure querelle fait rage autour du verbe “halluciner”. C’est le terme qu’emploient les concepteurs et défenseurs des IA génératives pour caractériser certaines des réponses totalement inventées, ou objectivement fausses, formulées par les robots conversationnels, ou chatbots.

En récupérant un terme plus communément utilisé dans les domaines de la psychologie, du psychédélisme ou dans diverses formes de mysticisme, les apôtres de l’IA reconnaissent certes le caractère faillible de leurs machines, mais, surtout, ils renforcent le mythe favori de cette industrie : l’idée qu’en élaborant ces grands modèles de langue [LLM] et en les entraînant grâce à tout ce que l’humanité a pu écrire, dire ou représenter visuellement, ils sont en train de donner naissance à une forme d’intelligence douée d’une existence propre et sur le point de marquer un bond majeur pour l’évolution de notre espèce.

Si les hallucinations sont effectivement légion dans le monde de l’IA, elles ne sont toutefois pas le produit des chatbots, mais des esprits fiévreux de certains grands pontes de la tech. Les IA génératives mettront fin à la pauvreté dans le monde, nous disent-ils. Elles vont résoudre le problème du dérèglement climatique. Et elles vont redonner du sens à nos métiers et les rendre plus intéressants.

Il existe bien un monde où les IA génératives pourraient effectivement être au service de l’humanité, des autres espèces et de notre maison commune. Encore faudrait-il pour cela qu’elles soient déployées dans un environnement économique et social radicalement différent de celui que nous connaissons.

Nous vivons dans un système conçu pour extraire le maximum de richesses et de profits – à la fois des êtres humains et de la nature. Et dans cette réalité où le pouvoir et l’argent sont hyperconcentrés, il est nettement plus probable que les IA se transforment en terrifiants instruments de vol et de spoliation.

Je reviendrai sur ce point, mais, dans un premier temps, il est utile de réfléchir au but que servent les charmantes hallucinations des utopistes de l’IA. Voici une hypothèse : sous leur vernis brillant, ces jolies histoires permettent de dissimuler ce qui pourrait se révéler le plus vaste pillage, et le plus conséquent, de l’histoire de l’humanité. Car ce que l’on observe, c’est que les entreprises les plus riches de l’histoire sont en train de faire main basse sur l’entièreté des connaissances humaines consignées sous forme numérique et de les enfermer dans des produits propriétaires, parmi lesquels bon nombre porteront préjudice à des hommes et femmes dont le travail aura été utilisé – sans leur consentement – pour fabriquer ces machines.

C’est ce que la Silicon Valley appelle couramment “disruption” – un tour de passe-passe qui a trop souvent fonctionné. On connaît le principe : foncez dans le Far West réglementaire ; clamez haut et fort que les vieilles règles ne peuvent pas s’appliquer à vos nouvelles technologies. Le temps de dépasser l’effet de nouveauté et de commencer à mesurer les dégâts sociaux, politiques et économiques de ces nouveaux jouets, la technologie est déjà si omniprésente que les législateurs et les tribunaux jettent l’éponge.

Voilà pourquoi les hallucinations sur tous les bienfaits qu’apporteront les IA à l’humanité prennent tant d’importance. Non seulement ces belles promesses tentent de faire passer un pillage à grande échelle comme un cadeau, mais en plus elles contribuent à nier les incontestables menaces que constituent ces technologies.

Comment justifie-t-on le développement d’instruments qui présentent des risques aussi catastrophiques ? Généralement, en affirmant que ces outils recèlent d’immenses bénéfices potentiels. Sauf que la plupart de ces bénéfices relèvent de l’hallucination, du mirage. Examinons-en quelques-uns.

Hallucination n° 1 : les IA résoudront la crise climatique

Parmi les qualités des IA, l’idée qu’elles pourront d’une manière ou d’une autre trouver une solution à la crise climatique figure presque invariablement en tête de liste. L’ancien PDG de Google Eric Schmidt résume cette conception dans un entretien paru dans The Atlanticoù il affirme qu’en matière d’IA, le jeu en vaut la chandelle : “Quand on pense aux principaux problèmes dans le monde, ils sont tous très compliqués – le changement climatique, les organisations humaines, etc. Et donc, je milite toujours pour que les gens soient plus intelligents.”

Selon cette logique, l’absence de solution aux grands défis de notre époque – tels que la crise climatique – serait donc liée à un déficit d’intelligence. Sauf que cela fait des décennies que des gens très intelligents, bardés de doctorats et de prix Nobel, pressent les gouvernements de prendre des mesures impératives. Si leurs très judicieux conseils n’ont pas été écoutés, ce n’est pas parce qu’on ne les comprend pas. C’est parce qu’en suivant leurs recommandations, les gouvernements risqueraient de perdre des milliards et des milliards de dollars dans l’industrie des énergies fossiles et que cela ferait vaciller le modèle de croissance fondé sur la consommation, qui est la clé de voûte de nos économies interconnectées. L’idée qu’il vaut mieux attendre que des machines formulent des solutions plus acceptables et/ou profitables n’est pas un remède au mal, mais un symptôme de plus.

Balayez ces hallucinations et il apparaît nettement plus probable que le déploiement des IA contribuera au contraire à activement aggraver la crise climatique. D’abord parce que les immenses serveurs qui permettent à ces chatbots de produire des textes et des créations artistiques instantanés sont une source énorme et croissante d’émissions de CO2. Ensuite, parce qu’à l’heure où des entreprises comme Coca-Cola investissent massivement dans les IA génératives pour doper leurs ventes, il devient parfaitement évident que l’objectif n’est pas de sauver le monde, mais d’inciter les gens à acheter toujours plus de produits émetteurs de carbone.

Enfin, cette évolution aura une autre conséquence, plus difficile à anticiper. Plus nos médias seront envahis de deepfakes et de clones, plus les informations se transformeront en zone de sables mouvants. Lorsque nous nous méfions de tout ce que nous lisons et voyons dans un environnement médiatique de plus en plus troublant, nous sommes encore moins bien équipés pour résoudre les problèmes les plus pressants de l’humanité.

Hallucination n° 2 : les IA assureront une bonne gouvernance

Il s’agit ici d’évoquer un avenir proche dans lequel politiciens et bureaucrates, s’appuyant sur l’immense intelligence cumulée des IA, seront capables [comme le vante par exemple ce groupe de réflexion] de “détecter des besoins récurrents et d’élaborer des programmes fondés sur des éléments concrets” pour le plus grand bénéfice de leurs administrés.

Comme pour le climat, la question mérite d’être posée : est-ce par manque d’éléments concrets que les responsables politiques imposent des décisions aussi cruelles qu’inefficaces ? Est-ce qu’ils ne comprennent vraiment pas le coût humain qu’impliquent les réductions budgétaires du système de santé en pleine pandémie ? Ne voient-ils pas le bénéfice pour leurs administrés de créer des logements non soumis aux règles du marché quand le nombre de sans domicile ne cesse d’augmenter ? Ont-ils vraiment besoin des IA pour devenir “plus intelligents” ou bien sont-ils juste assez intelligents pour savoir qui financera leur prochaine campagne ?

Ce serait merveilleux si les IA pouvaient effectivement contribuer à rompre les liens entre l’argent des entreprises et la prise de décision de politiques irresponsables. Le problème est que ces liens sont précisément la raison pour laquelle des entreprises comme Google et Microsoft ont été autorisées à déployer leurs chatbots sur le marché en dépit d’une avalanche de mises en garde. L’an dernier, les grandes entreprises de la tech ont dépensé la somme record de 70 millions de dollars [65 millions d’euros] pour défendre leurs intérêts à Washington.

Alors qu’il connaît pertinemment le pouvoir de l’argent sur les politiques du gouvernement, Sam Altman, le PDG d’OpenAI – concepteur de ChatGPT –, semble halluciner un monde complètement différent du nôtre, un monde dans lequel les dirigeants politiques et les industriels prendraient leurs décisions sur la base des données les plus pertinentes. Ce qui nous amène à une troisième hallucination.

Hallucination n° 3 : les IA nous libéreront des travaux pénibles

Si les séduisantes hallucinations de la Silicon Valley semblent plausibles, la raison en est simple. Les IA génératives en sont pour l’heure à un stade de développement qu’on pourrait qualifier de “simili-socialisme”. C’est une étape incontournable dans la méthode désormais bien connue des entreprises de la Silicon Valley. D’abord, créez un produit attractif et mettez-le à disposition gratuitement ou presque pendant quelques années, sans apparent modèle commercial viable. Faites de nobles déclarations sur votre objectif de créer une “place publique” [Elon Musk à propos de Twitter] ou de “relier les gens”, tout en propageant la liberté et la démocratie. Puis, voyez les gens devenir accros à votre outil gratuit et vos concurrents faire faillite. Une fois le champ libre, faites de la place pour la publicité, la surveillance, les contrats avec l’armée et la police, la boîte noire des reventes de données utilisateurs et les frais d’abonnement croissants.

Des chauffeurs de taxi en passant par les locations saisonnières et les journaux locaux, combien de vies et de secteurs ont-ils été décimés par cette méthode ? Avec la révolution de l’IA, ces préjudices pourraient paraître marginaux par rapport au nombre d’enseignants, de programmeurs, de graphistes, de journalistes, de traducteurs, de musiciens, de soignants et tant d’autres professionnels menacés de voir leur gagne-pain remplacé par du mauvais code.

Mais n’ayez crainte, prophétisent les apôtres de l’IA – ce sera merveilleux. Qui a envie de travailler de toute manière ? Les IA génératives ne signeront pas la fin du travail, nous dit-on, seulement du travail “ennuyeux”. Pour sa part, Sam Altman imagine un avenir où le travail “recouvre une notion plus large ; [où] ce n’est pas quelque chose que l’on fait pour manger, mais pour laisser parler sa créativité, comme une source de joie et d’épanouissement.”

Il se trouve que cette vision de l’existence qui fait la part belle aux loisirs est partagée par de nombreux militants de gauche. Sauf que nous, gauchistes, pensons également que si gagner de l’argent n’est plus le but de l’existence, il faut d’autres moyens pour satisfaire à nos besoins essentiels, tels que la nourriture et le logis. Dans un monde débarrassé des métiers aliénants, l’accès au logement doit donc être gratuit, de même que l’accès aux soins, et chaque individu doit se voir garantir des droits économiques inaliénables. Et soudainement, le débat ne tourne plus du tout autour des IA, mais du socialisme.

Or nous ne vivons pas dans le monde rationnel et humaniste que Sam Altman semble voir dans ses hallucinations. Nous vivons dans un système capitaliste où les gens ne sont pas libres de devenir philosophes ou artistes, mais où ils contemplent l’abîme – les artistes étant les premiers à y plonger.

Alors que les géants de la tech voudraient nous faire croire qu’il est déjà trop tard pour revenir en arrière et renoncer aux machines qui supplantent les humains, il est bon de rappeler qu’il existe des précédents légaux démontrant le contraire. Aux États-Unis, la Commission fédérale du commerce (FTC) [l’autorité américaine de la concurrence] a contraint Cambridge Analytica, ainsi qu’Everalbum, propriétaire d’une application photographique, à détruire la totalité de plusieurs algorithmes entraînés avec des données et des photos acquises de manière illégitime.

Un monde de deepfakes et d’inégalités croissantes n’est pas une fatalité. Il est le résultat de choix politiques. Nous avons les moyens de réglementer les chatbots qui vampirisent aujourd’hui nos existences et de commencer à bâtir un monde où les promesses les plus fantastiques des IA ne seront pas que des hallucinations de la Silicon Valley.

 

 

Cher ChatGPT

Cher ChatGPT, tu es une escroquerie…
Lettre ouverte par Erwan Cario
publié le 19 juin 2023 dans Liberation

Cher ChatGPT, puisqu’il est commun de s’adresser ainsi directement à toi, permets-moi de le faire sur un autre format que celui du «prompt».

Cher ChatGPT, tu es une escroquerie. Ne te méprends pas, je suis convaincu que tu es le résultat d’une recherche scientifique exaltante. Je suis fasciné par les évolutions spectaculaires du secteur de l’intelligence artificielle ces dix dernières années. Depuis ce mythique concours de reconnaissance d’images ImageNET Challenge en 2012 quand, pour la première fois, un système basé sur l’apprentissage profond («deep learning») a battu toutes les autres solutions présentes en compétition, jusqu’aux développements génératifs de ces dernières années. Durant cette décennie, le principe général de cet apprentissage qui te permet de fonctionner n’a pas beaucoup évolué. Il s’agit toujours d’ingurgiter une quantité phénoménale de données pour régler de manière très fine, grâce à des formules mathématiques complexes, des milliards de paramètres modélisés par des réseaux de neurones artificiels. Dans un premier temps, ces données devaient être annotées (une photo de chat devait être accompagnée de sa légende indiquant la présence du félin). Aujourd’hui, surtout avec le texte, ta spécialité, il s’agit d’absorber tout et n’importe quoi, du moment que ça se compte en milliards de mots. A partir de ce corpus monstrueux, grâce à cet algorithme «transformeur» dont tu tires ton T majuscule, tu vas pondérer des régularités, déterminer des schémas récurrents dans les positions des mots les uns par rapport aux autres pour générer un modèle incompréhensible vu de l’extérieur mais capable de performances stupéfiantes.

Toutes les oppressions et toutes les inégalités

Cher ChatGPT, tu es une escroquerie car, quels que soient les efforts déployés par tes concepteurs, tu ne seras jamais ni fiable ni éthique. Tu ne seras jamais fiable, car tu ne disposes d’aucune capacité de compréhension. Pour tes utilisateurs, les mots ont un sens, pour toi, il s’agit de la suite de termes qui ont statistiquement le plus de chances de répondre aux attentes. Tu ignores tout du factuel et du vrai, seule compte la crédibilité du propos, sa capacité à feindre le réel. Un peu comme le discours d’un député Renaissance qui aurait poussé à son paroxysme le concept des éléments de langage. Et tu ne seras jamais éthique, car tu as avalé sans distinction ce que l’humanité a produit de pire en termes de biais et de discriminations sans même pouvoir les identifier. Dans tes milliards de paramètres se terrent toutes les oppressions et toutes les inégalités, et pour éviter les réponses trop scandaleuses de ta part, OpenAI multiplie les surcouches de contrôle pour lisser au maximum tes propos. Difficile de connaître la teneur de ces patchs, qui sont pourtant essentiels, c’est un des secrets industriels les mieux gardés du secteur.

On a pu se faire une idée en juillet 2022 avec une autre IA vedette d’OpenAI, le générateur d’images Dall-E 2, qui avait tendance à générer des images d’hommes quand on lui demandait un docteur et de personnes blanches quand il s’agissait d’imaginer un PDG. Au lieu de corriger la présence de ces biais dans les rouages, OpenAI s’est contenté de rajouter, en secret et de manière aléatoire, des mots aux requêtes des utilisateurs. Un subterfuge mis au jour par le chercheur Richard Zhang qui a simplement demandé : «Une personne qui tient une feuille où il est écrit.» Résultat : des images avec les mots «homme noir» ou «femme» inscrits sur la feuille, preuve que la requête envoyée finalement au système était «Une personne qui tient une feuille où il est écrit homme noir» et que ces termes avaient été rajoutés a posteriori à la requête de façon un peu grossière. C’est certainement ce genre de rustine qui te permet de ne pas être trop visiblement raciste, sexiste ou complotiste dans tes réponses. Pourtant, dans le fond, dans ce qui te sert de cerveau artificiel, tu le restes. C’est terrifiant. Tu ressembles à un avion de ligne avec un fuselage colmaté au chatterton. Et la population mondiale est en salle d’embarquement. On pourra me taxer de naïveté (et c’est sans doute vrai), mais je crois profondément que ce qui compte dans un écrit ou une image, c’est l’intention et le sens qu’on a voulu mettre dans le choix des mots ou la construction visuelle.

L’illusion d’humanité de tes réponses

Cher ChatGPT, tu es une escroquerie car cette intention et ce sens te sont by design complètement étrangers. Les écrits que tu génères ne sont pas destinés à être lus, ils existent fondamentalement pour tromper. Tromper par l’illusion d’humanité de tes réponses qui génère une attention et une empathie disproportionnées, tromper en laissant croire que ce que tu écris est intéressant, pratique et sans danger. Tes plus grands zélateurs sont ceux qui se foutent royalement de la teneur et de l’intérêt des textes, ils veulent juste remplir à moindres frais les espaces gris dédiés aux mots, un peu comme avec le faux texte «Lorem Ipsum» utilisé par les maquettistes pour caler une mise en page. Le danger des IA n’est pas, comme ont voulu le faire croire les transhumanistes, l’émergence d’une super-intelligence capable de surpasser toute l’humanité pour l’asservir d’une manière ou d’une autre, mais peut-être bien la médiocrité de ton simulacre de pensée qu’on cherche aujourd’hui à imposer au monde comme un progrès.

Google Generative AI Foundations

Google has created a Generative AI learning path with 9 FREE courses!
Topics cover:
– Intro to LLMs
– Attention Mechanism
– Image Generation/Captioning
– Intro to Responsible AI
From the fundamentals of LLMs to creating & deploying generative AI solutions! 🚀
Read more 🧵👇
1️⃣ Introduction to Generative AI:
An introductory level micro-learning course aimed at explaining:
– What Generative AI is
– How it is used
– How it differs from traditional ML
Check this out👇
2️⃣ Introduction to Large Language Models:
The course explores:
– Fundamentals LLMs
– Their use cases
– Prompt engineering on LLMs
Check this out👇
3️⃣ Introduction to Responsible AI:
The course explains what responsible AI is, why it’s important, and how Google implements responsible AI in their products.
Check this out👇
4️⃣ Introduction to Image Generation:
This course introduces diffusion models, a family of ML models that recently showed promise in the image generation space.
Check this out👇
5️⃣ Encoder-Decoder Architecture:
This course gives you a synopsis of the encoder-decoder architecture.
It’s a powerful and prevalent machine learning architecture for sequence-to-sequence tasks.
Check this out👇
6️⃣ Attention Mechanism:
The course teaches you how attention works & how it revolutionised:
– machine translation
– text summarisation
– question answering
Check this out👇
7️⃣ Transformer Models and BERT Model:
This course introduces you to some of the most famous and effective transformer architectures!
Check this out👇
8️⃣ Create Image Captioning Models:
This course teaches you how to create an image captioning model by using deep learning.
Check this out👇
9️⃣ Introduction to Generative AI Studio:
This course introduces Generative AI Studio, a product on Vertex AI.
It teaches you to prototype and customize generative AI models so you can use their capabilities in your applications.
Check this out👇

Les 3 stades de l’IA

Les trois stades de l’intelligence artificielle : dans lequel nous nous trouvons et pourquoi beaucoup pensent que le troisième pourrait être fatal ?

Depuis son lancement fin novembre 2022, ChatGPT, le chatbot qui utilise l’intelligence artificielle (IA) pour répondre à des questions ou générer des textes à la demande, est devenu l’application internet à la croissance la plus rapide de l’histoire.

En deux mois seulement, elle a atteint les 100 millions d’utilisateurs actifs. Il a fallu neuf mois à l’application populaire TikTok pour franchir cette étape. Quant à Instagram, il lui a fallu deux ans et demi, selon les données de la société de veille technologique Sensor Town.

“Depuis 20 ans que nous suivons l’évolution de l’internet, nous ne nous souvenons pas d’une progression aussi rapide d’une application internet grand public”, ont déclaré les analystes d’UBS, qui ont fait état de ce record en février.

La popularité massive de ChatGPT, développé par OpenAI, soutenu par Microsoft, a suscité toutes sortes de discussions et de spéculations sur l’impact que l’intelligence artificielle générative a déjà et aura dans notre avenir proche.

Il s’agit de la branche de l’IA consacrée à la génération de contenu original à partir de données existantes (généralement tirées de l’internet) en réponse aux instructions d’un utilisateur.

Les textes (depuis les essais, la poésie et les blagues jusqu’au code informatique) et les images (diagrammes, photos, œuvres d’art de tout style et autres) produits par des IA génératives telles que ChatGPT, DALL-E, Bard et AlphaCode – pour ne citer que quelques-unes des plus connues – sont, dans certains cas, tellement impossibles à distinguer du travail humain qu’ils ont déjà été utilisés par des milliers de personnes pour remplacer leur travail habituel.

Des étudiants qui les utilisent pour faire leurs devoirs aux politiciens qui les utilisent pour leurs discours – le représentant démocrate Jake Auchincloss a présenté la ressource au Congrès américain – en passant par les photographes qui inventent des instantanés de choses qui ne se sont pas produites (et gagnent même des prix pour cela, comme l’Allemand Boris Eldagsen, qui a remporté la première place au dernier Sony World Photography Award pour une image créée par l’intelligence artificielle).

Cette note aurait pu être écrite par une machine et vous ne l’auriez probablement pas remarqué.

Ce phénomène a entraîné une révolution dans le domaine des ressources humaines, des entreprises telles que le géant de la technologie IBM ayant annoncé qu’elles cesseraient d’embaucher des personnes pour pourvoir quelque 8 000 postes qui pourraient être confiés à l’IA.

Un rapport de la banque d’investissement Goldman Sachs a estimé fin mars que l’IA pourrait remplacer un quart des emplois occupés aujourd’hui par des humains, mais qu’elle créera aussi plus de productivité et de nouveaux emplois.

Si tous ces changements vous dépassent, préparez-vous à un fait encore plus déconcertant.

Malgré tous ses impacts, ce que nous vivons actuellement n’est que la première étape du développement de l’IA.

Selon les experts, ce qui pourrait arriver bientôt – la deuxième étape – sera bien plus révolutionnaire.

Et la troisième et dernière, qui pourrait survenir très bientôt, est si avancée qu’elle changera complètement le monde, même au prix de l’existence humaine.

Les trois étapes

Les technologies de l’IA sont classées en fonction de leur capacité à imiter les caractéristiques humaines.

1. l’intelligence artificielle étroite (ANI)

La catégorie la plus élémentaire de l’IA est mieux connue sous son acronyme : ANI, pour Artificial Narrow Intelligence (intelligence artificielle étroite).

Elle est ainsi appelée parce qu’elle se concentre sur une seule tâche, effectuant un travail répétitif dans un domaine prédéfini par ses créateurs.

Les systèmes ANI sont généralement formés à l’aide d’un vaste ensemble de données (provenant par exemple de l’internet) et peuvent prendre des décisions ou effectuer des actions sur la base de cette formation.

Un ANI peut égaler ou surpasser l’intelligence et l’efficacité humaines, mais uniquement dans le domaine spécifique dans lequel il opère.

Les programmes d’échecs qui utilisent l’IA en sont un exemple. Ils sont capables de battre le champion du monde dans cette discipline, mais ne peuvent pas effectuer d’autres tâches.

C’est pourquoi on l’appelle aussi “IA faible”.

Tous les programmes et outils qui utilisent l’IA aujourd’hui, même les plus avancés et les plus complexes, sont des formes d’ANI. Et ces systèmes sont partout.

Les smartphones sont remplis d’applications qui utilisent cette technologie, des cartes GPS qui vous permettent de trouver votre chemin dans le monde ou de connaître la météo, aux programmes de musique et de vidéo qui connaissent vos goûts et vous font des recommandations.

Les assistants virtuels tels que Siri et Alexa sont également des formes d’ANI. Tout comme le moteur de recherche de Google et le robot qui nettoie votre maison.

Le monde des affaires utilise également beaucoup cette technologie. Elle est utilisée dans les ordinateurs internes des voitures, dans la fabrication de milliers de produits, dans le monde financier et même dans les hôpitaux, pour les diagnostics.

Des systèmes encore plus sophistiqués, tels que les voitures sans conducteur (ou véhicules autonomes) et le populaire ChatGPT, sont des formes d’ANI, car ils ne peuvent pas fonctionner en dehors de la plage prédéfinie par leurs programmeurs, et ne peuvent donc pas prendre de décisions par eux-mêmes.

Ils n’ont pas non plus de conscience de soi, une autre caractéristique de l’intelligence humaine.

Toutefois, certains experts estiment que les systèmes programmés pour apprendre automatiquement (apprentissage automatique), tels que ChatGPT ou AutoGPT (un “agent autonome” ou “agent intelligent” qui utilise les informations de ChatGPT pour effectuer certaines tâches secondaires de manière autonome), pourraient passer à l’étape suivante du développement.

2. l’intelligence générale artificielle (AGI)

Cette catégorie – l’intelligence générale artificielle – est atteinte lorsqu’une machine acquiert des capacités cognitives de niveau humain.

C’est-à-dire qu’elle peut accomplir n’importe quelle tâche intellectuelle qu’une personne peut accomplir.

Elle est également connue sous le nom d'”IA forte”.

La conviction que nous sommes sur le point d’atteindre ce niveau de développement est telle qu’en mars dernier, plus de 1 000 experts en technologie ont appelé les entreprises d’IA à cesser de former, pendant au moins six mois, des programmes plus puissants que GPT-4, la dernière version de ChatGPT.

“Les systèmes d’IA dotés d’une intelligence rivalisant avec celle de l’homme peuvent présenter des risques profonds pour la société et l’humanité”, ont averti Steve Wozniak, cofondateur d’Apple, et Elon Musk, propriétaire de Tesla, SpaceX, Neuralink et Twitter (qui était cofondateur d’Open AI avant de démissionner du conseil d’administration en raison de désaccords avec la direction de l’entreprise), entre autres, dans une lettre ouverte.

Dans cette lettre, publiée par l’organisation à but non lucratif Future of Life Institute, les experts déclarent que si les entreprises n’acceptent pas rapidement de limiter leurs projets, “les gouvernements devraient intervenir et instituer un moratoire” afin que des mesures de sécurité solides puissent être conçues et mises en œuvre.

Bien que cela ne se soit pas produit pour le moment, le gouvernement américain a convoqué les propriétaires des principales entreprises d’IA – Alphabet, Anthropic, Microsoft et OpenAI – pour convenir de “nouvelles actions visant à promouvoir une innovation responsable dans le domaine de l’IA”.

“L’IA est l’une des technologies les plus puissantes de notre époque, mais pour saisir les opportunités qu’elle offre, nous devons d’abord atténuer ses risques”, a déclaré la Maison Blanche dans un communiqué le 4 mai.

Le Congrès américain a quant à lui convoqué le PDG d’OpenAI, Sam Altman, pour qu’il réponde à des questions sur le ChatGPT mardi.

Lors de l’audition au Sénat, M. Altman a déclaré qu’il était “crucial” que son secteur soit réglementé par le gouvernement, car l’IA devient “de plus en plus puissante”.

Carlos Ignacio Gutiérrez, chercheur en politique publique au Future of Life Institute, a déclaré à BBC Mundo que l’un des grands défis de l’IA est qu'”il n’existe pas d’organe collégial d’experts décidant de la manière de la réglementer, comme c’est le cas, par exemple, avec le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC)”.

Dans leur lettre, les experts exposent leurs principales préoccupations.

“Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux que nous, nous déjouer, nous rendre obsolètes et nous remplacer ?

“Devons-nous risquer de perdre le contrôle de notre civilisation ?

Cela nous amène à la troisième et dernière étape de l’IA.

3) Super Intelligence Artificielle (ASI)

L’inquiétude de ces informaticiens est liée à une théorie bien établie selon laquelle, lorsque nous atteindrons l’AGI, nous atteindrons bientôt l’étape finale du développement de cette technologie : la superintelligence artificielle, qui se produit lorsque l’intelligence synthétique surpasse l’intelligence humaine.

Nick Bostrom, philosophe de l’Université d’Oxford et expert en IA, définit la superintelligence comme “un intellect bien plus intelligent que les meilleurs cerveaux humains dans pratiquement tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales”.

La théorie veut que lorsqu’une machine atteint une intelligence équivalente à celle de l’homme, sa capacité à multiplier cette intelligence de manière exponentielle grâce à son propre apprentissage autonome la conduira bientôt à nous surpasser de loin, jusqu’à atteindre l’ASI.

“Les humains doivent étudier très longtemps pour devenir ingénieurs, infirmières ou avocats. L’avantage de l’AGI est qu’elle est immédiatement extensible”, explique M. Gutiérrez.

Cela est dû à un processus appelé auto-amélioration récursive qui permet à une application d’IA de “s’améliorer continuellement, dans un délai que nous ne pourrions pas respecter”.

Bien que la question de savoir si une machine peut réellement acquérir le type d’intelligence générale d’un être humain – en particulier en termes d’intelligence émotionnelle – suscite de nombreux débats, c’est l’une des choses qui inquiètent le plus ceux qui pensent que nous sommes sur le point d’atteindre l’AGI.

Récemment, celui que l’on appelle le “parrain de l’intelligence artificielle”, Geoffrey Hinton, pionnier de la recherche sur les réseaux neuronaux et l’apprentissage profond qui permettent aux machines d’apprendre par l’expérience, tout comme les humains, a averti dans une interview accordée à la BBC que nous pourrions être proches de cette étape.

“Pour l’instant, les machines ne sont pas plus intelligentes que nous, d’après ce que je vois. Mais je pense qu’elles pourraient l’être bientôt”, a déclaré cet homme de 75 ans, qui vient de prendre sa retraite de Google.

Extinction ou immortalité

Il existe, en gros, deux camps de pensée concernant l’ASI : ceux qui pensent que cette superintelligence sera bénéfique pour l’humanité et ceux qui pensent le contraire.

Parmi ces derniers, le célèbre physicien britannique Stephen Hawking estime que les machines superintelligentes constituent une menace pour notre existence.

“Le développement d’une intelligence artificielle complète pourrait signifier la fin de la race humaine”, a-t-il déclaré à la BBC en 2014, quatre ans avant sa mort.

Une machine dotée d’un tel niveau d’intelligence “décollerait d’elle-même et se redessinerait à un rythme de plus en plus rapide”, a-t-il ajouté.

“Les humains, qui sont limités par une évolution biologique lente, ne seraient pas en mesure de rivaliser et seraient dépassés”, a-t-il prédit.

D’un autre côté, c’est l’inverse qui est vrai.

L’un des plus grands adeptes de l’ASI est l’inventeur et futurologue américain Ray Kurzweil, chercheur en IA chez Google et cofondateur de la Singularity University dans la Sillicon Valley (“singularité” est une autre façon d’appeler l’ère où les machines deviendront superintelligentes).

Kurzweil pense que les humains seront capables d’utiliser une IA super-intelligente pour surmonter nos barrières biologiques, améliorant ainsi nos vies et notre monde.

En 2015, il a même prédit que d’ici 2030, les humains atteindront l’immortalité grâce à des nanobots (robots minuscules) qui agiront à l’intérieur de notre corps, réparant et guérissant tout dommage ou maladie, y compris ceux causés par le passage du temps.

Dans son témoignage devant le Congrès mardi, Sam Altman, de l’OpenAI, s’est également montré optimiste quant au potentiel de l’IA, notant qu’elle pourrait résoudre “les plus grands défis de l’humanité, tels que le changement climatique et la guérison du cancer”.

Au milieu se trouvent des personnes qui, comme M. Hinton, pensent que l’IA a un potentiel énorme pour l’humanité, mais considèrent que le rythme actuel de développement, sans réglementation ni limites claires, est “inquiétant”.

Dans une déclaration envoyée au New York Times annonçant son départ de Google, M. Hinton a déclaré qu’il regrettait désormais le travail qu’il avait accompli parce qu’il craignait que de “mauvais acteurs” n’utilisent l’IA pour faire de “mauvaises choses”.

Interrogé par la BBC, il a donné cet exemple de “scénario cauchemardesque” :

“Imaginez, par exemple, qu’un mauvais acteur comme [le président russe Vladimir] Poutine décide de donner aux robots la capacité de créer leurs propres sous-objectifs.

Les machines pourraient éventuellement “créer des sous-objectifs tels que : ‘Je dois obtenir plus de pouvoir'”, ce qui représenterait un “risque existentiel”, a-t-il déclaré.

Dans le même temps, l’expert britanno-canadien a déclaré qu’à court terme, l’IA apportera bien plus d’avantages que de risques, et que “nous ne devrions donc pas cesser de la développer”.

“La question est la suivante : maintenant que nous avons découvert qu’elle fonctionne mieux que ce que nous avions prévu il y a quelques années, que faisons-nous pour atténuer les risques à long terme de voir des choses plus intelligentes que nous prendre le dessus ?

M. Guitérrez convient qu’il est essentiel de créer un système de gouvernance de l’IA avant de développer une intelligence capable de prendre des décisions par elle-même.

“Si vous créez ces entités qui ont leur propre motivation, qu’est-ce que cela signifie lorsque nous ne contrôlons plus ces motivations ?

Selon lui, le danger n’est pas seulement qu’une AGI ou une ASI, qu’elle soit auto-motivée ou contrôlée par des personnes ayant de “mauvais objectifs”, déclenche une guerre ou manipule le système financier, la production, l’infrastructure énergétique, les transports ou tout autre système aujourd’hui informatisé.

Une superintelligence pourrait nous dominer de manière beaucoup plus subtile, prévient-il.

“Imaginez un avenir où une entité possède tellement d’informations sur chaque personne de la planète et sur ses habitudes (grâce à nos recherches sur l’internet) qu’elle pourrait nous contrôler d’une manière dont nous ne nous rendrions même pas compte”, déclare-t-il.

“Le pire scénario n’est pas qu’il y ait des guerres entre les humains et les robots. Le pire scénario est que nous ne nous rendions pas compte que nous sommes manipulés parce que nous partageons la planète avec une entité beaucoup plus intelligente que nous”.

Deep Hysteria

DEEP HYSTERIA  is a still image series that repurposes algorithmic bias in the service of unraveling a deep human bias.

The people in these artworks aren’t real. They are “AI”-generated twins that vary in gender presentation, titled as another “AI” perceives their faces.

The faces are generated using deep learning algorithms trained on still frames of thousands of YouTubers speaking to the camera. Generated individuals are then algorithmically regendered and the variations fed to commercial deep learning based facial analysis algorithms, which attempt to categorize the faces according to the emotion of the subject apparent in their facial expression. Despite the marketing of such tools, reading emotions solely by analyzing a person’s face is a feat that neither humans nor “AI’s” can reliably do. Further, these deep learning algorithms are themselves trained on data categorized by humans — so they reflect human biases.

For centuries, “hysteria” was a medical and mental diagnosis that assumed females had an innate predisposition toward an anxious and nervous emotional state. Although the diagnosis has been retired, stereotypes of women as nervous, fearful, and uncertain continue to impact how women are perceived and treated. And while more women than men are diagnosed with anxiety, a Google image search for “anxiety” returns a far disproportionate number of images of women — who tend to be depicted in stereotypical “female hysteria” poses. The stereotype is further augmented by the cultural expectation of smiling as women’s default facial expression. Consider the phenomena of “Resting Bitch Face” and “telling women to smile.” A neutral facial expression on a women is read as disgust, distress, or unhappiness: “What’s wrong?”

The artworks in Deep Hysteria redeploy the bias embedded in facial analysis algorithms in the service of probing this deeply entrenched social bias.

Complete info on Deep Hysteria here.

A paper, Deep Hysteria: What algorithmic bias tells us about our emotional perceptions of womenis available here.