Artwork

Content provided by The Flares - Podcasts and The Flares. All podcast content including episodes, graphics, and podcast descriptions are uploaded and provided directly by The Flares - Podcasts and The Flares or their podcast platform partner. If you believe someone is using your copyrighted work without your permission, you can follow the process outlined here https://player.fm/legal.
Player FM - Podcast App
Go offline with the Player FM app!

#39 - Alignement et risques catastrophiques liés à l’I.A. – avec Jérémy Perret | The Flares

2:12:20
 
Share
 

Manage episode 346846812 series 2785757
Content provided by The Flares - Podcasts and The Flares. All podcast content including episodes, graphics, and podcast descriptions are uploaded and provided directly by The Flares - Podcasts and The Flares or their podcast platform partner. If you believe someone is using your copyrighted work without your permission, you can follow the process outlined here https://player.fm/legal.
0:00:00 Introduction 0:02:19 Présentation de l'invité 0:03:56 L'évolution de l'intelligence artificielle depuis 10-15 ans et les trajectoires futurs 0:16:54 L'omniprésence de l'I.A. dans le futur 0:22:28 Quelles sont les prochaines étapes à franchir ? Et l'hypothèse de la mise à l'échelle 0:28:45 Les techniques actuelles sont-elles suffisantes pour mener à des I.A. de "niveau humain" ? 0:37:23 Existe-t-il déjà des systèmes qui manifestent de la généralité dans leurs capacités ? 0:47:39 Peut-on éduquer les I.A. comme des enfants ? 0:55:57 Comment des I.A. pourraient poser des risques sans être incarnées dans le monde physique ? 1:02:26 Types de scenarios pouvant causer un risque existentiel et la perte de contrôle 1:09:47 Peut-on rendre les I.A. incertaines de leurs objectifs dans le but d'augmenter leur sécurité ? 1:15:37 Quelles sont les autres approches pour rendre les I.A. robustes et sans danger ? 1:25:38 Prognostique de Jérémy sur la date d’une I.A. générale ? 1:37:56 Est-ce que l’I.A. est le risque existentiel le plus probable ? 1:53:56 Les futurs positifs qui pourraient découler de l'alignement d'I.A. générales 2:03:49 Les ouvrages de références sur le sujet et l'altruisme efficace 2:08:06 Où en apprendre plus sur le sujet et sur Jérémy Perret ? Vous avez aimé cette vidéo ? Pensez à mettre un 👍 et à la partager. C'est un petit geste qui nous aide grandement 🥰 ⚠️ Essayez GRATUITEMENT "The Flares Premium" ⚠️ ⇒ https://the-flares.com/y/premium/ ----------------------------------------------------------------- ✍️ QUI EST DERRIÈRE CE CONTENU ? ☕ ➡ Production : The Flares - https://the-flares.com ➡ Realisation : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ➡ Animateurs : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ----------------------------------------------------------------- 🌎 SUIVEZ-NOUS 🌎 💬 Discord : https://the-flares.com/y/discord 💬 Communauté : https://the-flares.com/y/communaute 🐦 Twitter : https://the-flares.com/y/twitter 👨 Facebook : https://the-flares.com/y/facebook ▶️ Youtube : https://the-flares.com/y/youtube ----------------------------------------------------------------- 🔊 PODCAST AUDIO 🔊 📱 Sur votre téléphone : https://the-flares.com/y/podcast ☁ Soundcloud : https://the-flares.com/y/soundcloud 🌐 Apple Podcasts : https://the-flares.com/y/applepodcasts ----------------------------------------------------------------- 💡 SOURCES & RÉFÉRENCES 💡 ➡ Introduction à la sûreté de l'IA (court blog introductif) : https://medium.com/altruisme-efficace/introduction-%C3%A0-la-s%C3%BBret%C3%A9-de-lia-40a37bd2c621 ➡ Chaine YouTube de Jérémy Perret : https://www.youtube.com/channel/UCLMc6NQE5PYm4zCUVJEY4Pw ➡ Conférence de Thibaut Giraud à propos de Superintelligence de Nick Bostrom : https://www.youtube.com/watch?v=frG47p887BE ➡ aligned ai - stuart armstrong : https://www.aligned-ai.com/ ➡ The alignment problem - Livre : https://en.wikipedia.org/wiki/The_Alignment_Problem ➡ human compatible - Livre : https://en.wikipedia.org/wiki/Human_Compatible ➡ superintelligence - Livre : https://en.wikipedia.org/wiki/Superintelligence:_Paths,_Dangers,_Strategies ➡ La vie 3.0 - Livre : https://en.wikipedia.org/wiki/Life_3.0https://www.alignmentforum.org/ ➡ Le fabuleux chantier - Livre : https://www.amazon.com/fabuleux-chantier-lintelligence-artificielle-robustement/dp/275982361X Bienvenue dans ce nouvel épisode du podcast “la prospective” de The Flares, ici Gaëtan. Dans cet épisode, je reçois Jérémy Perret, docteur en intelligence artificielle, passionné par les trajectoires futures de la technologie et de l’humanité en général, parle d’alignement sur Suboptimal et ailleurs. Ceci est une longue conversation, vous pourriez choisir de l’écouter en accélérant la vitesse de lecture. ⬇️ Lisez la suite ici ⬇️ https://the-flares.com/y/avenir-du-monde/intelligence-artificielle/alignement-et-risques-catastrophiques-lies-a-li-a-avec-jeremy-perret/
  continue reading

97 episodes

Artwork
iconShare
 
Manage episode 346846812 series 2785757
Content provided by The Flares - Podcasts and The Flares. All podcast content including episodes, graphics, and podcast descriptions are uploaded and provided directly by The Flares - Podcasts and The Flares or their podcast platform partner. If you believe someone is using your copyrighted work without your permission, you can follow the process outlined here https://player.fm/legal.
0:00:00 Introduction 0:02:19 Présentation de l'invité 0:03:56 L'évolution de l'intelligence artificielle depuis 10-15 ans et les trajectoires futurs 0:16:54 L'omniprésence de l'I.A. dans le futur 0:22:28 Quelles sont les prochaines étapes à franchir ? Et l'hypothèse de la mise à l'échelle 0:28:45 Les techniques actuelles sont-elles suffisantes pour mener à des I.A. de "niveau humain" ? 0:37:23 Existe-t-il déjà des systèmes qui manifestent de la généralité dans leurs capacités ? 0:47:39 Peut-on éduquer les I.A. comme des enfants ? 0:55:57 Comment des I.A. pourraient poser des risques sans être incarnées dans le monde physique ? 1:02:26 Types de scenarios pouvant causer un risque existentiel et la perte de contrôle 1:09:47 Peut-on rendre les I.A. incertaines de leurs objectifs dans le but d'augmenter leur sécurité ? 1:15:37 Quelles sont les autres approches pour rendre les I.A. robustes et sans danger ? 1:25:38 Prognostique de Jérémy sur la date d’une I.A. générale ? 1:37:56 Est-ce que l’I.A. est le risque existentiel le plus probable ? 1:53:56 Les futurs positifs qui pourraient découler de l'alignement d'I.A. générales 2:03:49 Les ouvrages de références sur le sujet et l'altruisme efficace 2:08:06 Où en apprendre plus sur le sujet et sur Jérémy Perret ? Vous avez aimé cette vidéo ? Pensez à mettre un 👍 et à la partager. C'est un petit geste qui nous aide grandement 🥰 ⚠️ Essayez GRATUITEMENT "The Flares Premium" ⚠️ ⇒ https://the-flares.com/y/premium/ ----------------------------------------------------------------- ✍️ QUI EST DERRIÈRE CE CONTENU ? ☕ ➡ Production : The Flares - https://the-flares.com ➡ Realisation : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ➡ Animateurs : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ----------------------------------------------------------------- 🌎 SUIVEZ-NOUS 🌎 💬 Discord : https://the-flares.com/y/discord 💬 Communauté : https://the-flares.com/y/communaute 🐦 Twitter : https://the-flares.com/y/twitter 👨 Facebook : https://the-flares.com/y/facebook ▶️ Youtube : https://the-flares.com/y/youtube ----------------------------------------------------------------- 🔊 PODCAST AUDIO 🔊 📱 Sur votre téléphone : https://the-flares.com/y/podcast ☁ Soundcloud : https://the-flares.com/y/soundcloud 🌐 Apple Podcasts : https://the-flares.com/y/applepodcasts ----------------------------------------------------------------- 💡 SOURCES & RÉFÉRENCES 💡 ➡ Introduction à la sûreté de l'IA (court blog introductif) : https://medium.com/altruisme-efficace/introduction-%C3%A0-la-s%C3%BBret%C3%A9-de-lia-40a37bd2c621 ➡ Chaine YouTube de Jérémy Perret : https://www.youtube.com/channel/UCLMc6NQE5PYm4zCUVJEY4Pw ➡ Conférence de Thibaut Giraud à propos de Superintelligence de Nick Bostrom : https://www.youtube.com/watch?v=frG47p887BE ➡ aligned ai - stuart armstrong : https://www.aligned-ai.com/ ➡ The alignment problem - Livre : https://en.wikipedia.org/wiki/The_Alignment_Problem ➡ human compatible - Livre : https://en.wikipedia.org/wiki/Human_Compatible ➡ superintelligence - Livre : https://en.wikipedia.org/wiki/Superintelligence:_Paths,_Dangers,_Strategies ➡ La vie 3.0 - Livre : https://en.wikipedia.org/wiki/Life_3.0https://www.alignmentforum.org/ ➡ Le fabuleux chantier - Livre : https://www.amazon.com/fabuleux-chantier-lintelligence-artificielle-robustement/dp/275982361X Bienvenue dans ce nouvel épisode du podcast “la prospective” de The Flares, ici Gaëtan. Dans cet épisode, je reçois Jérémy Perret, docteur en intelligence artificielle, passionné par les trajectoires futures de la technologie et de l’humanité en général, parle d’alignement sur Suboptimal et ailleurs. Ceci est une longue conversation, vous pourriez choisir de l’écouter en accélérant la vitesse de lecture. ⬇️ Lisez la suite ici ⬇️ https://the-flares.com/y/avenir-du-monde/intelligence-artificielle/alignement-et-risques-catastrophiques-lies-a-li-a-avec-jeremy-perret/
  continue reading

97 episodes

All episodes

×
 
Loading …

Welcome to Player FM!

Player FM is scanning the web for high-quality podcasts for you to enjoy right now. It's the best podcast app and works on Android, iPhone, and the web. Signup to sync subscriptions across devices.

 

Quick Reference Guide