l etica al tempo dei robot n.
Download
Skip this Video
Loading SlideShow in 5 Seconds..
L’ETICA AL TEMPO DEI ROBOT PowerPoint Presentation
Download Presentation
L’ETICA AL TEMPO DEI ROBOT

Loading in 2 Seconds...

play fullscreen
1 / 84

L’ETICA AL TEMPO DEI ROBOT - PowerPoint PPT Presentation


  • 136 Views
  • Uploaded on

L’ETICA AL TEMPO DEI ROBOT. Giuseppe O. Longo Università di Trieste. Il mostro di Frankestein nella maschera di Boris Karloff. Mary Shelley (1797-1851) Frankenstein ovvero il Prometeo Moderno, 1818. Il Golem. Il Golem nel film di Paul Wegener (1915).

loader
I am the owner, or an agent authorized to act on behalf of the owner, of the copyrighted work described.
capcha
Download Presentation

L’ETICA AL TEMPO DEI ROBOT


An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -
    Presentation Transcript
    1. L’ETICA AL TEMPO DEI ROBOT Giuseppe O. Longo Università di Trieste

    2. Il mostro di Frankestein nella maschera di Boris Karloff

    3. Mary Shelley (1797-1851) Frankenstein ovvero il Prometeo Moderno, 1818

    4. Il Golem

    5. Il Golem nel film di Paul Wegener (1915)

    6. Il robot Maria del film Metropolis di Fritz Lang (1927)

    7. L’anatra digerente di Vaucanson

    8. Vaucanson (1709-1782) illustra i suoi sonatori meccanici – Cartolina illustrata

    9. Il “Turco”, automa scacchista

    10. Un robot del dramma R.U.R.

    11. Helena: Perché li fabbricate, allora? Busman: Ahahah! Questa è bella! Perché si fabbricano i Robot! Fabry: Per il lavoro, signorina. Un Robot sostituisce due operai e mezzo. La macchina umana, signorina, era molto imperfetta. Un giorno occorreva eliminarla definitivamente. Karel Čapek, R.U.R. (1921)

    12. Dottor Gall: I Robot quasi non avvertono i dolori fisici. Ciò non ha dato buoni risultati. Dobbiamo introdurre la sofferenza. Helena: E sono più felici se sentono il dolore? Dottor Gall: Al contrario. Però sono tecnicamente più perfetti. Karel Čapek, R.U.R.

    13. Machina Dolens Racconto, da Il fuoco completo, Mobydick, Faenza, 2000 Il cervello nudo Dramma teatrale

    14. Charles Babbage (Teignmouth 1791- Londra 1871)

    15. Ada Augusta King Contessa di Lovelace (Londra 1815-1852)

    16. Alan Turing ( 1912-1954) Le macchine possono pensare? Il “gioco dell’imitazione” (1950)

    17. Konrad Zuse (1910-1995)

    18. John von Neumann (1903-1957)

    19. Il filosofo John Searle (1932) Il pensiero umano non è solo esecuzione di algoritmi

    20. John Searle contro l’IA forte: i computer hanno la sintassi ma non la semantica

    21. L’esperimento concettuale della “stanza cinese”Sto manipolando scarabocchi cinesi per produrre risposte in cinese, ma io non capisco il cinese. Il registro delle regole è in inglese - Chiunque sia nella stanza è un madrelingua cinese.

    22. Supponendo che l’uscita abbia senso per un cinese, la persona dentro la stanza capisce il cinese? this

    23. John Searle rinchiuso nella stanza cinese

    24. Joseph Weizenbaum (1923-2008) Il programma Eliza imitava uno psicologo (1964)

    25. Un esempio di colloquio con Eliza Gli uomini sono tutti uguali. In che senso? In un modo o nell'altro ci tormentano sempre. Può farmi un esempio? Be', è stato il mio ragazzo a farmi venire qui. E' stato il suo ragazzo a farla venire qui. Dice che sono sempre depressa.

    26. Continuazione Mi dispiace sentire che è depressa. E' vero. Sono infelice. Pensa che venire qui l'aiuterà a non essere infelice? Ho bisogno di aiuto, questo è sicuro. Che cosa cambierebbe per lei se ricevesse aiuto?

    27. Continuazione Forse imparerei a sopportare mia madre. Mi dica qualcosa della sua famiglia. Mia madre si occupa di me. Chi altri della sua famiglia si occupa di lei? Mio padre. Suo padre. Per certi versi lei somiglia a mio padre. Che somiglianze vede?

    28. Continuazione Lei non è molto aggressivo, ma penso che non voglia farmelo capire. Perché pensa che non sia molto aggressivo? Lei non litiga con me. Perché pensa che io non litighi con lei? Perché ha paura di me. Le fa piacere pensare che ho paura dei lei? Mio padre ha paura di tutti.

    29. Continuazione Che cos'altro le viene in mente quando pensa a suo padre? I prepotenti. Questo ha a che fare con il fatto che il suo ragazzo l'ha fatta venire qui?

    30. Sconvolto dal successo di Eliza, Weizenbaum ritirò il programma J. Weizenbaum ricevette nel 1988 il premio Norbert Wiener per la responsabilità sociale dei ricercatori

    31. Il cane Aibo

    32. Il mio bassotto Alcibiade

    33. Alcibiade di profilo

    34. Valerie, una andreide

    35. Forse, in realtà, stiamo assistendo a una graduale fusione della natura generale delle attività e delle funzioni umane con le attività e le funzioni di ciò che noi umani abbiamo costruito e di cui ci siamo circondati. Philip Dick, Mutazioni

    36. Che siamo fatti di carbonio o di silicio non ha importanza: ciascuno di noi dev’essere trattato col giusto rispetto Arthur C. Clarke, 2010

    37. Isaac Asimov

    38. a) L’etica robot -> umani. b) L’etica umani -> robot.

    39. Le leggi della ROBO(E)TICA

    40. 1) Un robot non può recar danno a un essere umano e non può permettere che, a causa di un suo mancato intervento, un essere umano riceva danno. • 2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge. • 3) Un robot deve proteggere la propria esistenza, purché la sua autodifesa non contrasti con la Prima o con la Seconda Legge. Isaac Asimov (1942)

    41. 0) Un robot non può recar danno all’umanità e non può permettere che, a causa di un suo mancato intervento, l’umanità riceva danno. • 1) Un robot non può recar danno a un essere umano e non può permettere che, a causa di un suo mancato intervento, un essere umano riceva danno. • 2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge. • 3) Un robot deve proteggere la propria esistenza, purché la sua autodifesa non contrasti con la Prima o con la Seconda Legge.

    42. Robot soldato

    43. Una scultura di robot soldato

    44. Una scena del film AI: artificial intelligence di Spielberg

    45. Il robot Asimo