1 / 24

Moraliskt ansvar

Moraliskt ansvar. Elin Palm. Vem har ansvar, i kraft av vad och för vad?. Ansvarsbegreppet Kriterier för moraliskt agentskap Under vilka villkor kan man vara moraliskt ansvarig? Vad kan man hållas ansvarig för?. Ansvarsbegreppet. Vad betyder moraliskt ansvar?

tea
Download Presentation

Moraliskt ansvar

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Moraliskt ansvar Elin Palm

  2. Vem har ansvar, i kraft av vad och för vad? • Ansvarsbegreppet • Kriterier för moraliskt agentskap • Under vilka villkor kan man vara moraliskt ansvarig? • Vad kan man hållas ansvarig för?

  3. Ansvarsbegreppet • Vad betyder moraliskt ansvar? • Att uttrycka beröm/klander för en handling/undlåtande X är att i viss mening tillskriva ansvar för X.

  4. Ansvarssubjekt • Individer? • Kollektiv? • Datorer? • Robotar? • Ansvar typiskt sammankopplad med idén om ”personer” och vad som anses skilja människan från övriga levande varelser - förnuft, autonomi.

  5. Aristoteles 384-323 fKr Nichomakeanska etiken – grunden för dygder/laster. För moraliskt ansvar krävs: • beslutskapacitet • kontroll • medvetenhet • frivillighet

  6. Kollektivt ansvar? Om kollektivt ansvar så hur sanktionera? • Omöjligt att straffa en grupp utan att det drabbar dess medlemmar. • Orättvist att utsätta en person för en bestraffning som han/hon inte individuellt förtjänat.

  7. Moraliskt ansvar Men, om allt redan är förutbestämt t ex fysikaliska lagar eller en gudomlig plan – kan jag då ha • en fri vilja och • ett moraliskt ansvar?

  8. Fatalism • Fatalism – upplevd fri vilja = illusion -> inget moraliskt ansvar • Homeriska epos 800 fKr –vissa aspekter ligger bortom vår makt att påverka mha val/handlingar - styrs av stjärnor, gudar. Ex Oidipus. • Denna starka varianten av fatalism har förkastats för även om det är så att vissa aspekter ligger bortom vår förmåga att påverka gäller det inte för alla aspekter.

  9. Determinism • Allt som sker är orsakat av bakomliggande faktorer och omöjliggör att något som inte redan är bestämt sker. • Personer kan inte påverka men deras handlingar är nödvändiga länkar i den totala utvecklingen.

  10. Teologisk determinism • En gudomlig plan ligger till grunden för all utveckling/alla händelser. • Innebär då guds suveränitet/allsmäktighet att: • gud är ansvarig för det onda? • vi är ofria/utan ansvar då vi inte kan göra annat än vad gud bestämt?

  11. Vetenskaplig determinism • Fysikaliska lagar • Iom Newtons genombrott – nytt intresse för vetenskaplig determinism. Om allt kan förklaras mha fysikaliska lagar – vilket utrymme finns då för en fri vilja?

  12. Fatalism vs determinism • Skiljer sig vg mänskliga val o handling • Om fatalismen är sann så spelar människors val ingen roll men KD ser dessa som nödvändiga länkar i den kausala kedjan. • Även om val o handlingar är determinerade så påverkar de i viss mån utvecklingen.

  13. Ansvarstillskrivelse • Inkompatibilism: Om KD är sann så kan man inte vara moraliskt ansvarig. Fri vilja är inkompatibel med KD. • Meritbaserad syn på ansvar. Ett omdöme som att person X är moraliskt ansvarig kan aldrig vara sant om världen är determinerad. För att förtjäna beröm/klander krävs viss kontroll – att välja att utföra en handling/avstå. Beröm/klander blir meningslöst. • T ex Epikuros, Augustinus, Kant.

  14. Ansvarstillskrivelse • Kompatibilism: en person kan vara moraliskt ansvarig för vissa saker även om hon och vad hon gör är determinerat. • Konskeventialism vg moraliskt ansvar. Determinism behöver inte helt underminera fri vilja – kan vara effektivt/ge goda konsekvenser att tillskriva ansvar – förändra beteende. Stoiker, Hobbes, Hume, Mill.

  15. Ansvarstillskrivelse • Meritbaserad syn – beröm/klander efter förtjänst? • Konsekvensbaserad syn – beröm/klander pga gynsamma konskevenser? Otydligt hos Aristoteles

  16. Teknik & ansvar ”Vapen dödar inte människor, människor dödar människor”. • Smartare maskiner assisterar och ”ersätter” människor. • Vem har ansvar för vad i utveckling, implementerade och användande av datorer? • Är parterna medvetna om sitt ansvar? • Sanktioner vid ansvarsbrott?

  17. Kan datorer vara moralsikt ansvarig? • Kan datorer hållas ansvariga och isf för vad? • Är datorer kapabla att förstå och kontrollera sina handlingar? • Kan de agera medvetet/avsiktligt? • Är datorer överlägsna människor på vissa områden? • Vilka handlingar, om några, bör datorer få utföra själva? • Om vi överlåter ansvar åt datorer, förverkar vi vårt eget ansvar?

  18. 4 typer av ansvar • Rollansvar – rollanknutna plikter. • Uppgiftsansvar – ansvar för att X utförs – ofta inbegrips rollanknutna plikter. • Skuldansvar – kan ställas till svars om X går fel. Skuldansvar har i regel sin grund i uppgiftsansvar. • Strikt ansvar - juridiskt ansvar, skuldansvar som kan uppkomma även om man inte varit försumlig.

  19. Fyra hinder för ansvar • The problem of many hands • Bugs • Antropomorfiering • Ägande utan juridiskt ansvar Illa utstavade normer och antagandet om teknikens värdeneutralitet

  20. Intelligenta maskiner Robotar inom kirurgi. • Fördel: robotar (ev styrda av läkare via monitor) opererar med hög precision - laparaskopiska kirurgi. Sjuksköterskeroboten Flo kan prata, le, rynka på ögonbrynen, gå utan att krocka med saker, ta pulsen, öppna medicinburkar, påminna patienter om medicinering och berätta för läkaren hur de mår. • Fördel: roboten kan jobba dygnet runt. Sälroboten Paro - sällskapsrobot till äldre människor. Fördel: ”alltid där”, positiv inverkan på äldre människors välbefinnande, icke-allergiframkallande.

  21. Bikupa 1. Bör vi låta robotar utföra • kirurgi, • medicinering? Om så, på vilka villkor? 2. Finns det några områden där det vore acceptabelt att använda robotar? Isåfall vilka och varför?

  22. Kan ett datasystem vara moraliskt ansvarigt? • Ja, maskiner med intentionalitet t ex Deep Blue. • Nej, datorer kan inte vara moraliska agenter – saknar empati, förståelse. • Nej, enligt Aristoteles kriterier - datorers beslut är inte frivilliga. • Datorer kan ha intentionalitet => ansvar men vi har fortfarande ansvar för deras intentionalitet. Kan på sikt underminera vårt eget ansvar.

  23. Turingtestet - Kan maskiner tänka? • Om en människa konverserar med en maskin och inte kan avgöra om det är en maskin eller människa, uppfylls kriteriet för mänsklig intelligens. • En person sitter vid en dator i ett isolerat rum och ställer frågor till andra datorer via nätverk - bemannade av människor som skriver in svaren manuellt eller datorprogram som automatiskt svarar på frågorna. Om testpersonen inte kan avgöra vilka respondenter som är människor resp. program har sistnämnda klarat testet.

  24. Kinesiska rummet • John Searle – kritik av TT • Rum: person som inte talar kinesiska men som får frågor på kinesiska och som mha manual löser dessa frågor. • TT – inte ett test på medvetande/förståelse. Personen i kinesiska rummet kommer aldrig att förstå kinesiska, följer bara instruktioner.

More Related