Un ancien cadre d’OpenAI affirme que l’IA pourrait être la dernière technologie que les humains aient jamais inventée

Un ancien cadre d'OpenAI affirme que l'IA pourrait être la dernière technologie que les humains aient jamais inventée
  • L’ancien directeur d’OpenAI, Zack Kass, a déclaré à BI qu’il était optimiste quant à la capacité de l’IA à résoudre les problèmes mondiaux.
  • Même si l’IA peut ouvrir la voie à une innovation inimaginable, Kass a déclaré que nous devrons également faire face à des difficultés croissantes.
  • Puisqu’il n’y a plus de retour en arrière désormais, il a déclaré qu’il était préférable de se concentrer sur une politique efficace et sur la gestion de la corruption.

Alors que l’intelligence artificielle influence la façon dont nous faisons des affaires, étudions, interagissons avec le monde et même cuisinons nos plats préférés, certains chercheurs craignent que les dernières avancées en matière d’IA n’ouvrent également une boîte de Pandore de nouveaux malheurs technologiques sur le monde.

Mais pas Zack Kass. L’ancien cadre d’OpenAI, l’un des cent premiers employés de l’entreprise qui dirigeait sa division Go-to-Market avant de la quitter l’année dernière, considère l’IA comme un cadeau.

Kass s’est entretenu avec Trading Insider pour expliquer pourquoi il est un éternel optimiste quant à la capacité de l’IA à aider à résoudre les problèmes mondiaux, et pourquoi le monde doit être prêt à supporter des coûts désagréables pour libérer tout le potentiel de la technologie.

Cette conversation a été modifiée pour des raisons de longueur et de clarté.

Qu’avez-vous fait chez OpenAI et pourquoi l’avez-vous quitté ?

Chez OpenAI, j’étais l’un des 100 premiers employés et le premier employé de l’équipe Go-to-Market, le responsable du Go-to-Market, j’ai donc pu jeter les bases de ce qui est aujourd’hui une très grande entreprise. , les ventes, les partenariats et la réussite des clients. Après quelques défis familiaux, j’ai pris la décision probablement la plus difficile que j’aurai jamais prise : rentrer à Santa Barbara et concevoir une carrière autour de ce qui m’inspire vraiment maintenant, à savoir promouvoir l’IA comme l’avenir de l’expérience humaine. Et quand je suis parti, j’ai passé beaucoup de temps à parler à Sam [Altman] sur la façon dont je pouvais avoir le plus grand impact, et là où j’ai atterri, c’était d’être la voix du contre-récit – que l’IA n’est pas catastrophique, que l’avenir n’est pas dystopique et post-apocalyptique, mais qu’il est brillant et plein de plus de joie et moins de souffrance. Alors maintenant, mon objectif et ma mission sont de promouvoir un avenir brillant et vraiment passionnant. Je pense qu’on me accuse parfois d’être naïf, et je suis certainement heureux de porter cette étiquette, je la porte presque fièrement. Mais je crois fondamentalement que si nous n’avons pas de personnes pour promouvoir cet avenir, nous n’avons aucune chance de le construire.

Vous vous décrivez comme un futuriste de l’IA. Qu’est-ce que cela signifie pour vous?

Pour moi, cela aide à imaginer un avenir dans les affaires et la culture, en médecine, en éducation, propulsé par l’IA. Cela aide les gens à imaginer leur entreprise et leur vie influencées par l’IA, et aussi comment l’IA devrait être exploitée au mieux pour des considérations éthiques ou sociétales, et comment elle devrait être au mieux gérée.

Alors, à court terme, quels sont selon vous les avantages sociaux les plus importants de l’IA ?

À court terme, je pense que nous allons voir de nombreuses implications pour le premier monde qui sont vraiment inconfortables pour les gens, mais en réalité positives. Je pense que nous allons finir par travailler beaucoup moins, et les gens sont terrifiés par ces implications. Mais franchement, je m’en réjouis. Travaillons moins, allons faire les choses qui nous donnent un but et de l’espoir. Dans le deuxième et le tiers monde, il n’est pas difficile d’imaginer que chaque enfant ait un enseignant doté de l’IA qui sait ce qu’il sait, sait comment il aime apprendre et peut communiquer avec sa famille comment l’aider au mieux. Il n’est pas difficile d’imaginer que tout le monde aura un médecin généraliste doté de l’IA qui pourra l’aider à diagnostiquer et au moins à trier les problèmes vers un spécialiste. La semaine dernière, cela est passé inaperçu, mais nous avons découvert notre premier nouvel antibiotique et cela il y a 60 ans, grâce à l’IA. Alors maintenant, vous commencez à aggraver les implications sur les sciences de la vie et les biosciences et cela devient vraiment, vraiment passionnant.

Et tous ceux que vous connaissez dans l’industrie sont-ils aussi optimistes que vous ?

C’est une très bonne question. Je dirai ceci : je ne pense pas qu’il soit actuellement courant d’adopter un sentiment extrêmement positif, car je pense que cela est considéré comme naïf. Je pense que la chose la plus importante qui soit vraie parmi les initiés et les pairs de l’industrie est qu’ils reconnaissent tous le potentiel incroyable de cette technologie, mais là où les gens semblent divisés, c’est sur la probabilité que nous y parvenions soit à cause d’une mauvaise politique, soit d’une mauvaise exécution. , ou un désalignement dans le modèle. Je n’ai pas rencontré un initié de l’industrie que je respectais qui n’ait pas reconnu le fait que cela pourrait être la dernière technologie que les humains aient jamais inventée et qu’à partir de maintenant, l’IA nous propulse à un rythme exceptionnel et que nous vivons de plus en plus épanouissants. , des vies joyeuses avec moins de souffrance et vous savez, nous explorons d’autres mondes et galaxies, etc. Mais je pense qu’il est également tout à fait vrai que de nombreux initiés de l’industrie ont une vision beaucoup plus douteuse des inconvénients que moi. Je pense que certains vous diront que le risque est si grand que même les avantages n’en valent pas la peine. Je ne suis absolument pas d’accord avec cela. Je ne vois tout simplement aucune preuve suggérant que l’IA voudra tous nous tuer.

Alors, quels sont les risques que vous voyez, si l’IA ne parvient pas à mettre fin au monde à la manière de Terminator ?

Je pense qu’il existe essentiellement quatre risques à la baisse. Il s’agit de 1) l’idiocratie, 2) le déplacement identitaire, 3) le problème d’alignement ou ce que nous appelons l’existentialisme, et 4) les mauvais acteurs.

Je pense qu’il y a une chance vraiment réelle qu’une ou plusieurs générations cessent d’évoluer en raison du fait de ne plus avoir à résoudre des problèmes intéressants et difficiles. Si l’IA résout tous nos problèmes, que fera notre cerveau ? Et je pense qu’il y a une probabilité raisonnable que, pendant un petit moment, notre cerveau cesse d’évoluer.

Maintenant, j’ai de nombreuses raisons de penser que ce n’est pas un problème à long terme, de la même manière qu’Internet a produit les médias sociaux, et que les médias sociaux vont être considérés comme un fléau pour une génération, et ensuite nous nous résoudrons le problème de la même manière que nous avons inventé le charbon, et que le charbon a tué beaucoup de mineurs de charbon et a causé beaucoup de mauvaises choses à l’environnement, et maintenant nous supprimons progressivement le charbon. Ce sont, à mon avis, des conséquences à court terme.

Le deuxième est le déplacement identitaire. Le vrai problème, ce seront les gens qui ont passé des vies, des générations, à se soucier d’un métier ou d’un métier spécifique, un peu comme les menuisiers de la révolution industrielle, ou les forgerons avant eux, qui ont transmis ces métiers, pratiques et apprentissages familiaux, et soudain, ils ont perdu leur identité et leur objectif alors que nous inventions ces nouveaux outils pour faire leur travail. Leur problème n’était pas « Hé, je ne peux pas nourrir ma famille ». Ils sont allés chercher d’autres emplois. Leur problème était : « Hé, c’était mon objectif. » C’est ce que j’aime. Et je m’inquiète énormément du déplacement d’identité. Je m’inquiète énormément pour vous savez, pendant un petit moment, les gens ont vraiment du mal à comprendre qui ils sont.

Le plus important est l’existentialisme, et toute l’idée autour de l’existentialisme est extrêmement raisonnable, à savoir : pouvons-nous former un modèle pour qu’il soit aligné sur l’intérêt humain ? Et mon opinion est oui, nous pouvons et nous le ferons. Il y a tellement de gens intéressés à travailler sur ce sujet que c’est presque certainement la chose qui fera l’objet d’une politique la plus agressive. Vous pouvez vous attendre à ce qu’un comité du Congrès veuille examiner tous les modèles publiés. D’ici 2026, je suppose, peut-être 2025, et ils devront respecter les normes d’alignement internationales de la même manière que nous avons élaboré très rapidement des normes internationales ou pour le désarmement nucléaire et l’énergie nucléaire. Nous ferons de même ici. Tout le monde est intéressé à résoudre ce problème, même les acteurs les plus cupides voudraient que ce problème soit résolu. Vous ne pouvez pas profiter de vos gains si l’IA vous a asservi. Il est donc dans l’intérêt de tous que le problème d’alignement soit résolu.

Et vous êtes sûr que l’IA ne se retournera pas contre nous d’une manière ou d’une autre ?

Personne ne peut me donner une raison pour laquelle l’IA voudrait nous asservir si elle est alignée et formée sur l’expérience humaine. Pourquoi l’IA voudrait-elle nuire aux humains ? Je pense que nous avons tellement intériorisé l’idée que les humains sont mauvais, que tout ce que nous créons devrait être intrinsèquement mauvais et je ne pense tout simplement pas que ce soit vrai. Je pense aussi qu’il est très dangereux d’anthropomorphiser l’IA. Je pense que nous sommes tellement absorbés par l’idée de Terminator Skynet, et je ne pense tout simplement pas que ce soit même un tant soit peu intéressant compte tenu de ce que nous pensons construire.

Alors, à quoi ressemble la réglementation de l’industrie pour maintenir l’alignement des choses tout en promouvant l’innovation nécessaire pour nous amener à l’intelligence générale artificielle (IAG) ?

Les trois choses qui nous empêcheraient de construire l’AGI sont un déficit de calcul, un déficit énergétique et une réglementation excessive ou une mauvaise politique. Nous avons donc construit la crise climatique par notre politique lorsque nous avons rendu l’énergie nucléaire illégale dans les années 70 et 80. Aujourd’hui, nous sommes tous assis à nous plaindre du changement climatique alors que nous brûlons des milliards de tonnes de charbon. Je cite le nucléaire comme le meilleur exemple de la manière dont une politique, particulièrement influencée par la perception du public, peut avoir des conséquences vraiment, vraiment incroyables sur l’expérience humaine. Je pense que nous serons en mesure de résoudre de nombreux problèmes liés au changement climatique, mais je ne pense pas que nous aurions à regarder ce baril de côté si nous avions simplement construit des centrales nucléaires et accepté une partie des coûts du progrès. . Vous savez, combien de Three Mile Island et de Tchernobyl aurions-nous accepté en échange de la combustion de milliards de tonnes de charbon ? Je ne sais pas quel est le numéro. Mais bon sang, c’est plus de deux, et c’est un calcul vraiment difficile. Mais nous avons absolument besoin d’une politique parce que je pense que dire simplement : « Hé, tout le monde va se comporter de manière appropriée à grande échelle » est aussi un peu naïf. Je pense qu’il serait très judicieux que les décideurs politiques exigent essentiellement que les entreprises publient les impacts économiques annuels de leur adoption de l’IA et qu’elles gèrent la corruption inhérente à quelque chose comme ça. C’est vraiment difficile à gérer, mais je pense que nous devrions être très conscients de ce qui se passe dans notre société et dans notre monde des affaires.

Mais comment gérer ce type de réglementation lorsque nous nous inquiétons de la manière dont d’autres pays, comme la Chine par exemple, développent l’IA ?

Je pense qu’on n’accorde pas suffisamment d’attention à la question de l’IA par rapport à l’IA. Et je pense que l’un des risques soulignés par beaucoup de gens est qu’une évolution aussi rapide peut inspirer une sorte de course aux armements. Je pense qu’il est vraiment important de reconnaître, par définition, que l’AGI, si elle est correctement alignée, ajoute de la valeur à l’espèce humaine. L’objectif devrait donc être que les bons acteurs du monde, quels qu’ils soient et quelle que soit la manière dont vous souhaitez les classer, construisent une AGI alignée et la partagent avec le monde. Cela étant dit, je pense qu’il reste impératif de constituer des coalitions internationales pour créer des normes raisonnables pour l’IA. Cela semble être un très bon moyen de forcer les acteurs à travailler collectivement, à construire les bonnes choses. Et il va de soi que plus tôt nous le ferons, plus tôt nous commencerons à vraiment définir qui essaie réellement de construire pour le bénéfice de l’humanité par rapport à qui essaie de construire pour le bénéfice d’un État ou d’un individu. ou un groupe.

A lire également