{"id":135664,"date":"2023-04-01T14:49:18","date_gmt":"2023-04-01T12:49:18","guid":{"rendered":"https:\/\/www.pauljorion.com\/blog\/?p=135664"},"modified":"2023-04-01T14:54:56","modified_gmt":"2023-04-01T12:54:56","slug":"the-guardian-une-lettre-signee-par-elon-musk-demandant-une-pause-dans-la-recherche-en-ia-suscite-la-controverse-le-1er-avril-2023","status":"publish","type":"post","link":"https:\/\/www.pauljorion.com\/blog\/2023\/04\/01\/the-guardian-une-lettre-signee-par-elon-musk-demandant-une-pause-dans-la-recherche-en-ia-suscite-la-controverse-le-1er-avril-2023\/","title":{"rendered":"The Guardian, <b>Une lettre sign\u00e9e par Elon Musk demandant une pause dans la recherche en IA suscite la controverse<\/b>, le 1<sup>er<\/sup> avril 2023"},"content":{"rendered":"<p><a href=\"https:\/\/www.msn.com\/fr-fr\/actualite\/culture\/intelligence-artificielle-elon-musk-et-des-centaines-d-experts-alertent-sur-les-risques-majeurs-pour-l-humanit%C3%A9\/ar-AA19dsyA?ocid=msedgdhp&amp;pc=U531&amp;cvid=db01e23aa89b4147a11ab94ca1843dda&amp;ei=10\" target=\"_blank\" rel=\"noopener\" data-saferedirecturl=\"https:\/\/www.google.com\/url?q=https:\/\/www.msn.com\/fr-fr\/actualite\/culture\/intelligence-artificielle-elon-musk-et-des-centaines-d-experts-alertent-sur-les-risques-majeurs-pour-l-humanit%25C3%25A9\/ar-AA19dsyA?ocid%3Dmsedgdhp%26pc%3DU531%26cvid%3Ddb01e23aa89b4147a11ab94ca1843dda%26ei%3D10&amp;source=gmail&amp;ust=1680438053546000&amp;usg=AOvVaw3DN9GcelNtC_cDr0AkRmY_\">Intelligence artificielle : Elon Musk et des centaines d&rsquo;experts alertent sur les \u00ab\u00a0risques majeurs pour l&rsquo;humanit\u00e9\u00a0\u00bb<\/a><\/p>\n<blockquote><p><em>Il s&rsquo;av\u00e8re que la d\u00e9claration comportait de fausses signatures et certains chercheurs ont condamn\u00e9 l&rsquo;utilisation de leurs travaux.<\/em><\/p>\n<p><em>Une lettre cosign\u00e9e par Elon Musk et des milliers d&rsquo;autres personnes demandant une pause dans la recherche sur l&rsquo;intelligence artificielle a d\u00e9clench\u00e9 une tornade lorsque des chercheurs cit\u00e9s dans la lettre ont condamn\u00e9 l&rsquo;utilisation de leurs travaux, que certains signataires se sont r\u00e9v\u00e9l\u00e9s \u00eatre de fausses signatures et que d&rsquo;autres sont revenus sur leur soutien.<\/em><\/p>\n<p><em>Le 22 mars, plus de 1.800 signataires &#8211; dont M. Musk, le sp\u00e9cialiste des sciences cognitives Gary Marcus et le cofondateur d&rsquo;Apple Steve Wozniak &#8211; ont demand\u00e9 une pause de six mois dans le d\u00e9veloppement de syst\u00e8mes \u00ab\u00a0plus puissants\u00a0\u00bb que le GPT-4. Des ing\u00e9nieurs d&rsquo;Amazon, de DeepMind, de Google, de Meta et de Microsoft ont \u00e9galement apport\u00e9 leur soutien.<\/em><\/p>\n<p><em>D\u00e9velopp\u00e9 par OpenAI, une soci\u00e9t\u00e9 cofond\u00e9e par Musk et d\u00e9sormais soutenue par Microsoft, GPT-4 a d\u00e9velopp\u00e9 la capacit\u00e9 de tenir une conversation semblable \u00e0 celle d&rsquo;un humain, de composer des chansons et de r\u00e9sumer de longs documents. De tels syst\u00e8mes d&rsquo;IA dot\u00e9s d&rsquo;une \u00ab\u00a0intelligence rivalisant avec celle de l&rsquo;homme\u00a0\u00bb repr\u00e9sentent un risque profond pour l&rsquo;humanit\u00e9, affirme la lettre.<\/em><\/p>\n<p><em>\u00ab\u00a0Les laboratoires d&rsquo;IA et les experts ind\u00e9pendants devraient profiter de cette pause pour \u00e9laborer et mettre en \u0153uvre conjointement un ensemble de protocoles de s\u00e9curit\u00e9 partag\u00e9s pour la conception et le d\u00e9veloppement de l&rsquo;IA avanc\u00e9e, qui soient rigoureusement v\u00e9rifi\u00e9s et supervis\u00e9s par des experts externes ind\u00e9pendants\u00a0\u00bb, indique la lettre.<\/em><\/p>\n<p><em>L&rsquo;institut Future of Life, le groupe de r\u00e9flexion qui a coordonn\u00e9 l&rsquo;initiative, a cit\u00e9 12 \u00e9tudes r\u00e9alis\u00e9es par des experts, dont des universitaires et des employ\u00e9s actuels et anciens d&rsquo;OpenAI, de Google et de sa filiale DeepMind. Cependant, quatre experts cit\u00e9s dans la lettre ont exprim\u00e9 leur inqui\u00e9tude quant \u00e0 l&rsquo;utilisation de leurs recherches pour formuler de telles affirmations.<\/em><\/p>\n<p><em>Lors de son lancement initial, la lettre ne comportait pas de protocole de v\u00e9rification des signatures et a recueilli des signatures de personnes qui ne l&rsquo;avaient pas r\u00e9ellement sign\u00e9e, notamment Xi Jinping et Yann LeCun, le scientifique en chef de Meta sp\u00e9cialis\u00e9 dans l&rsquo;IA, qui a pr\u00e9cis\u00e9 sur Twitter qu&rsquo;il ne la soutenait pas.<\/em><\/p>\n<p><em>Les critiques ont accus\u00e9 le Future of Life Institute (FLI), qui est principalement financ\u00e9 par la Fondation Musk, de donner la priorit\u00e9 \u00e0 des sc\u00e9narios apocalyptiques imaginaires plut\u00f4t qu&rsquo;\u00e0 des pr\u00e9occupations plus imm\u00e9diates concernant l&rsquo;IA, telles que les pr\u00e9jug\u00e9s racistes ou sexistes programm\u00e9s dans les machines.<\/em><\/p>\n<p><em>Parmi les recherches cit\u00e9es figure \u00ab\u00a0On the Dangers of Stochastic Parrots\u00a0\u00bb, un document bien connu co\u00e9crit par Margaret Mitchell, qui a pr\u00e9c\u00e9demment supervis\u00e9 la recherche \u00e9thique sur l&rsquo;IA chez Google. Mme Mitchell, aujourd&rsquo;hui responsable de la recherche \u00e9thique au sein de la soci\u00e9t\u00e9 d&rsquo;IA Hugging Face, a critiqu\u00e9 la lettre, d\u00e9clarant \u00e0 Reuters qu&rsquo;il n&rsquo;\u00e9tait pas \u00e9vident de d\u00e9terminer ce qui est vu comme \u00ab\u00a0plus puissant que le GPT4\u00a0\u00bb.<\/em><\/p>\n<p><em>\u00ab\u00a0En consid\u00e9rant un grand nombre d&rsquo;id\u00e9es douteuses comme acquises, la lettre affirme un ensemble de priorit\u00e9s et un discours sur l&rsquo;IA qui profite aux partisans du Future of Life Institute\u00a0\u00bb, a-t-elle d\u00e9clar\u00e9. \u00ab\u00a0Ignorer les effets n\u00e9fastes actuels est un privil\u00e8ge que certains d&rsquo;entre nous n&rsquo;ont pas.\u00a0\u00bb<\/em><\/p>\n<p><em>Ses coauteurs, Timnit Gebru et Emily M Bender, ont critiqu\u00e9 la lettre sur Twitter, cette derni\u00e8re qualifiant certaines de ses affirmations de \u00ab\u00a0farfelues\u00a0\u00bb *. Shiri Dori-Hacohen, professeur adjoint \u00e0 l&rsquo;universit\u00e9 du Connecticut, a \u00e9galement contest\u00e9 la mention de son travail dans la lettre. L&rsquo;ann\u00e9e derni\u00e8re, elle a cosign\u00e9 un document de recherche dans lequel elle affirmait que l&rsquo;utilisation g\u00e9n\u00e9ralis\u00e9e de l&rsquo;IA pr\u00e9sentait d\u00e9j\u00e0 de graves risques.<\/em><\/p>\n<p><em>Selon ses recherches, l&rsquo;utilisation actuelle des syst\u00e8mes d&rsquo;IA pourrait influencer la prise de d\u00e9cision en mati\u00e8re de changement climatique, de guerre nucl\u00e9aire et d&rsquo;autres menaces existentielles.<\/em><\/p>\n<p><em>Elle a d\u00e9clar\u00e9 \u00e0 Reuters : \u00ab\u00a0L&rsquo;IA n&rsquo;a pas besoin d&rsquo;atteindre le niveau d&rsquo;intelligence humaine pour exacerber ces risques.<\/em><\/p>\n<p><em>\u00ab\u00a0Il existe des risques non existentiels qui sont vraiment, vraiment importants, mais qui ne re\u00e7oivent pas le m\u00eame type d&rsquo;attention qu&rsquo;\u00e0 Hollywood.<\/em><\/p>\n<p><em>Interrog\u00e9 sur ces critiques, Max Tegmark, pr\u00e9sident du Future of Life Institute, a d\u00e9clar\u00e9 que les risques \u00e0 court et \u00e0 long terme de l&rsquo;IA devaient \u00eatre pris au s\u00e9rieux. \u00ab\u00a0Si nous citons quelqu&rsquo;un, cela signifie simplement que nous affirmons qu&rsquo;il approuve cette phrase. Cela ne signifie pas qu&rsquo;ils approuvent la lettre, ou que nous approuvons tout ce qu&rsquo;ils pensent\u00a0\u00bb, a-t-il d\u00e9clar\u00e9 \u00e0 Reuters.\u00a0<\/em><\/p><\/blockquote>\n<p>* On se souviendra que le terme que j&rsquo;ai personnellement utilis\u00e9 \u00e9tait celui de\u00a0 <a href=\"https:\/\/www.pauljorion.com\/blog\/2023\/03\/28\/mon-opinion-sur-chatgpt-en-1989\/comment-page-1\/#comment-951909\" target=\"_blank\" rel=\"noopener\">\u00ab\u00a0cornichonnerie\u00a0\u00bb<\/a> \ud83d\ude09 .<\/p>\n","protected":false},"excerpt":{"rendered":"<p><a href=\"https:\/\/www.msn.com\/fr-fr\/actualite\/culture\/intelligence-artificielle-elon-musk-et-des-centaines-d-experts-alertent-sur-les-risques-majeurs-pour-l-humanit%C3%A9\/ar-AA19dsyA?ocid=msedgdhp&amp;pc=U531&amp;cvid=db01e23aa89b4147a11ab94ca1843dda&amp;ei=10\" target=\"_blank\" rel=\"noopener\" data-saferedirecturl=\"https:\/\/www.google.com\/url?q=https:\/\/www.msn.com\/fr-fr\/actualite\/culture\/intelligence-artificielle-elon-musk-et-des-centaines-d-experts-alertent-sur-les-risques-majeurs-pour-l-humanit%25C3%25A9\/ar-AA19dsyA?ocid%3Dmsedgdhp%26pc%3DU531%26cvid%3Ddb01e23aa89b4147a11ab94ca1843dda%26ei%3D10&amp;source=gmail&amp;ust=1680438053546000&amp;usg=AOvVaw3DN9GcelNtC_cDr0AkRmY_\">Intelligence artificielle : Elon Musk et des centaines d&rsquo;experts alertent sur les \u00ab\u00a0risques majeurs pour l&rsquo;humanit\u00e9\u00a0\u00bb<\/a><\/p>\n<blockquote>\n<p><em>Il s&rsquo;av\u00e8re que la d\u00e9claration comportait de fausses signatures et certains chercheurs ont condamn\u00e9 l&rsquo;utilisation de leurs travaux.<\/em><\/p>\n<p><em>Une lettre cosign\u00e9e par Elon Musk et des milliers d&rsquo;autres personnes demandant une pause dans la recherche [&hellip;]<\/em><\/p>\n<\/blockquote>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_crdt_document":"","footnotes":""},"categories":[13],"tags":[9084,4633,9155,940],"class_list":["post-135664","post","type-post","status-publish","format-standard","hentry","category-intelligence-artificielle","tag-chatgpt","tag-elon-musk","tag-future-of-life-institute","tag-intelligence-artificielle-2"],"_links":{"self":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/135664","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/comments?post=135664"}],"version-history":[{"count":2,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/135664\/revisions"}],"predecessor-version":[{"id":135666,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/135664\/revisions\/135666"}],"wp:attachment":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/media?parent=135664"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/categories?post=135664"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/tags?post=135664"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}