fredag 2 januari 2009

Uppföljning - etiska regler

För att komma närmre grundproblemet i etiska principer tänker jag komma med stöd för min ståndpunkt. En handling orsakas av tidigare faktorer och beroende på vilken människa som utför handlingen så kommer den vara olik den andra, skälen och effekterna är individuella. Även om jag gör en handling och du gör en liknande så är inte våra handlingar identiska, identiska handlingar uppstår endast i tankeexperiment. Om jag en dag skulle stå inför ett trolley problem:

"A trolley is running out of control down a track. In its path are 5 people who have been tied to the track. Fortunately, you can flip a switch, which will lead the trolley down a different track to safety. Unfortunately, there is a single person tied to that track. Should you flip the switch?"

Vad jag skulle göra i en sådan situation beror knappast på vilken moralisk "kod" jag följer utan snarare ifrån vilket humör jag hade den dagen, vilka människor jag träffat eller vilken film jag såg kvällen före jag råkade ut för denna situation. Från ett utilitaristiskt perspektiv skulle jag vara ålagd att rädda de 5 personerna. Men spelar det någon som helst roll för mig i mitt beslutstagande? Är det min flickvän eller mamma som ligger på rälsen så skulle jag utan tvekan rädda henne istället för de 5 andra personer, detta som ett rent ärligt svar. Däremot, skulle det ligga en gammal hemlös person på rälsen och jag kunde rädda 5 personer som tillför mer till världen skulle jag välja de fem, varför?

Jag tänker motivera mitt val med något annat än att det skulle maximera lyckan eller att jag ej ville bryta mot plikten, jag skulle göra ett sådant val rent automatiskt utan eftertanke. Det skulle vara det enda som kändes rätt för stunden, lusten drev mig till en sådan ståndpunkt. Detta innebär inte att jag motsätter mig utilitarism tex. utan jag håller med den till stor del, jag menar bara att en sådan abstrakt regel antagligen inte kan påverka våra val i vardagen eller mikrobeslut så att säga, från ett samhälligt perspektiv går det mycket väl att använda den med viss sannolikhet om framtida effekter. Utilitarism är - när man har ägnar sig åt eftertanke - det enda vettiga förslaget för att avgöra saker och ting, största lycka åt så många som möjligt. Vem vill motsatsen? Vad skulle hända om en robot, programmerad med robotikens tre lagar, hamnade i denna situation?

Roboten skulle beräkna utility och sannolikhet, komma fram till att rädda de 5 och låta den ene dö, såvida det inte vore omöjligt att riskera sitt eget liv för att stanna tåget med sin egen styrka. Men nu säger vi att roboten inte kan uppoffra sig själv för att skydda personerna, tiden är alltför knapp. Då skulle roboten välja att skydda de 5 och låta den ene dö. Är roboten programmerad för att aldrig inskränka en persons privata sfär och negativa rättigheter skulle roboten avstå från handling, passivitet för att inte aktivt bidra till döden utav en individ. Samma sak skulle ske pliktetiskt, mord är alltid fel, även om det är för att skydda andra. Jag tycker inte att en robot ska programmeras genom någon av dessa sätt, förrutom i början utav artificiell intelligens. När robotar blir mer intelligenta än oss så är det inte särskilt förvånande om de finner sätt att "gå runt" deras inprogrammerade principer, att gå runt känslor är betydligt svårare och särskilt om roboten behandlas som en jämlik agent. Även vanliga människor idag kan finna absurda situationer för etiska system, ta exemplet om ett sjukhus där en frisk kommer in i ett sjukhus för att få vård, men 5 personer behöver donationer för att få överleva. Utilitaristiskt så är det nödvändiga (såvida ingen alls får reda på det som hänt) att döda den friske för att rädda de 5. Från rättighetslärans sida så kan person sälja heroin till 14 åriga pojkar (eftersom de äger sina egna kroppar och är kapabla till rationella beslut) och skulle man lägga dig i och fängsla knarklangaren eller tvinga pojken till rehabilitering så bryter man rättigheterna, en robot skulle helt avvakta ifrån handling.

Det jag vill komma fram till är att etiken har sin början i våra känslor, vi alla uppskattar lycka och vill undvika lidande, skulle människan genom evolutionen uppskatta lidande skulle det vara vårt "högsta värde". En robot utan förmåga att känna glädje eller sorg har ingen grundpelare till dess moral eller något som driver den mer än ett apatiskt lydande. En robot utan känslor är inget mer än en avancerad brödrost.

Inga kommentarer: