Artwork

Content provided by Dagbladet Information. All podcast content including episodes, graphics, and podcast descriptions are uploaded and provided directly by Dagbladet Information or their podcast platform partner. If you believe someone is using your copyrighted work without your permission, you can follow the process outlined here https://player.fm/legal.
Player FM - Podcast App
Go offline with the Player FM app!

Skal vi lade algoritmer være socialrådgivernes spådomskugler?

19:27
 
Share
 

Manage episode 391152731 series 3541719
Content provided by Dagbladet Information. All podcast content including episodes, graphics, and podcast descriptions are uploaded and provided directly by Dagbladet Information or their podcast platform partner. If you believe someone is using your copyrighted work without your permission, you can follow the process outlined here https://player.fm/legal.
Myndigheder har eksperimenteret med at bruge algoritmer til at forudse alt fra langtidsledighed til risiko for mistrivsel blandt børn. Men er det etisk forsvarligt at bruge fejlbehæftede modeller til at spå om sårbare borgere? Det er emnet for dagens afsnit af Maskinstorm, hvor Thomas Troels Hildebrandt gæster studiet i Store Kongensgade. Han er professor ved datalogisk institut på Københavns Universitet og forsker i, hvordan man kan bruge kunstig intelligens i det offentlige system. Ifølge Thomas Troels Hildebrandt opstår der hurtigt store etiske og retssikkerhedsmæssige udfordringer, når man forsøger at bruge algoritmer til at spå om borgerne. »For det her er modeller, og der vil altid være fejl i modeller. Så man skal altid tænke over, om vi kan tåle at begå fejl. Det kan man bedre, hvis man ikke retter skytset mod de sårbare, men måske indad mod sagsbehandlingen og spørger, hvordan vi for eksempel kan blive klogere på ventetider eller overholdelse af lovgivning,« siger Thomas Troels Hildebrandt. Din vært i dagens afsnit er journalist Laura Friis Wang. Podcasten er støttet af Novo Nordisk Fonden.
  continue reading

16 episodes

Artwork
iconShare
 
Manage episode 391152731 series 3541719
Content provided by Dagbladet Information. All podcast content including episodes, graphics, and podcast descriptions are uploaded and provided directly by Dagbladet Information or their podcast platform partner. If you believe someone is using your copyrighted work without your permission, you can follow the process outlined here https://player.fm/legal.
Myndigheder har eksperimenteret med at bruge algoritmer til at forudse alt fra langtidsledighed til risiko for mistrivsel blandt børn. Men er det etisk forsvarligt at bruge fejlbehæftede modeller til at spå om sårbare borgere? Det er emnet for dagens afsnit af Maskinstorm, hvor Thomas Troels Hildebrandt gæster studiet i Store Kongensgade. Han er professor ved datalogisk institut på Københavns Universitet og forsker i, hvordan man kan bruge kunstig intelligens i det offentlige system. Ifølge Thomas Troels Hildebrandt opstår der hurtigt store etiske og retssikkerhedsmæssige udfordringer, når man forsøger at bruge algoritmer til at spå om borgerne. »For det her er modeller, og der vil altid være fejl i modeller. Så man skal altid tænke over, om vi kan tåle at begå fejl. Det kan man bedre, hvis man ikke retter skytset mod de sårbare, men måske indad mod sagsbehandlingen og spørger, hvordan vi for eksempel kan blive klogere på ventetider eller overholdelse af lovgivning,« siger Thomas Troels Hildebrandt. Din vært i dagens afsnit er journalist Laura Friis Wang. Podcasten er støttet af Novo Nordisk Fonden.
  continue reading

16 episodes

Kaikki jaksot

×
 
Loading …

Welcome to Player FM!

Player FM is scanning the web for high-quality podcasts for you to enjoy right now. It's the best podcast app and works on Android, iPhone, and the web. Signup to sync subscriptions across devices.

 

Quick Reference Guide