Risiko 0
Sammenstilt av Svein Sando
Ulrich Beck (1992) sier at vi har beveget oss fra et industrielt velferdssamfunn som
gir oss goder, til et risikosamfunn som gir oss onder (globale og ofte usynlige farer).
Hva er risiko?
«Risiko» brukes på mange måter, ettersom hvilken sammenheng det brukes:
- I dagligtale: sannsynligheten for at skade kan skje. Risiko er mulig skade, dvs noe
annet enn en faktisk skade. Det oppfattes gjerne som mindre betenkelig å sette en person
i en risikoutsatt posisjon enn å skade vedkommende.
- I den såkalte Bayesiske beslutningsteori, er risiko en tallstørrelse som angir
sannsynligheten for et uønsket utkomme. Dette er et matematisk mål for risiko, der 1 er
topp risiko, dvs at skade skjer i hvert tilfelle, mens 0 er uten risiko, dvs at skade
aldri kan skje.
- I Kvantitativ risikovurdering (QRA = Quantitative Risk Assessment) er risiko
sannsynligheten for at noe vil skje. Dette er en statistisk størrelse angitt f.eks. i
gjennomsnittlig årlige tilfeller av dødelighet i forhold til en gitt populasjon.
- I Risiko-nytteanalayser (RBA = Risk-Benefit Analysis) er risiko en pengeverdi angitt for
en mulig negativ følge, slik som tap av liv.
- I forsikringssammenheng, er risiko sjansen for finansielt tap.
Individuell, frivillig risiko og kollektiv, ufrivillig risiko
Vi skal i det følgende for det meste konsentrere oss risiko slik vi bruker det i
dagligtalen, dvs 1 over. Særlig vil vi fokusere den kollektivt påførte risiko. Det
skjelnes også mellom individuell frivillig påtatt risiko, og kollektiv ufrivillig
påført risiko. En sivil fallskjermhopper utsetter seg frivillig for risiko. Alle
påføres vi risiko ved å leve i et samfunn med en rekke kjente og ukjente miljøgifter,
og det er ufrivillig for vi har intet valg hvis vi først skal leve. Det finnes
selvfølgelig glidende overganger mellom disse to former.
Hvem definerer hva som er risikofylt?
Ingeniører og naturvitere uttrykker risikoen ofte som en statistisk sannsynlighet for
at noe farlig kan skje. Samfunnsvitere og filosofer mener dette er for smalt, da risiko
også handler om kvalitative komponenter slik som samtykke i å gå inn under en økt
risiko, og grad av tillit til informasjon om risiko. Noen etikere (f.x. Schrader-Frechette
1985) kritiserer også naturvitenskapelig uttrykte risiko beregninger for å gå i
«er-bør»-fella [1] fordi man reduserer en egentlig etisk
problemstilling til bare å være en teknisk/naturvitenskapelig sak.
Ingeniører og naturvitere har tendens til å se på risikovurderinger som «sitt»
område, som de vil holde lekfolk utenfor. Filosofer og etikere hevder på sin side at
siden risiko har med den offentlige velferd å gjøre, og fordi slike naturvitenskapelige
risikovurderinger i mange tilfeller har vist seg å være fullstendig villedende, er det
all grunn til å trekke inn et deltagende demokrati her. Det finnes dessuten ikke
naturvitenskapelig basert erfaringsmateriale som kan gi opphav til også
naturvitenskapelig sett «sikre» risikoprognoser for ny teknologi. I mange tilfeller går
det tiår før vi kan oppdage eventuelle skadevirkninger av teknologisk aktivitet. Flere
økologisk uheldige senvirkninger har oppstått på tvers av naturvitenskapelig baserte
prognoser.
Etikk og risikoevaluering
Valg mellom bayesisk beslutningsteori eller maximin-regelen
Skal risikoen vurderes ut fra bayesisk beslutningsteori eller ut fra maximin-regelen?
Bayesisk risikovurdering
Beskrivelse
Man søker å maksimere gjennomsnittlig forventet nytte (utils), der
«forventet nytte» er definert som den subjektive sannsynlighet for en tilstand
multiplisert med dets nytte.
Kritikk av maximin-regelen
Utilitarister som Harsanyi argumenterer for Bayesisk vurdering fordi det verst
tenkelige («worst case») (se: maximin-regelen) av teknologisk risiko sjelden inntreffer.
Maximin-regelen kritiseres for å være konservativ, at den hindrer samfunnsutviklingen og
at den overfokuserer situasjoner og teknologien med ekstrem liten risiko.
Maximin-regelen
Beskrivelse
Her søker man å minimalisere sannsynligheten for det verst tenkelige.
Kontraktfilosofen John Rawls anvender maximin-regelen på sosial status og sier at et
samfunn er rettferdig i den grad det er villig til å forbedre tilstanden til de sosialt
dårligst stilte. Han tilstreber altså et egalitært samfunn.
Kritikk av bayesisk beslutningsteori
Subjektive sannsynligheter er vanskelig å bestemme. Folk har ulike oppfatninger om hva
som er risikofylt og kommer i skyggen av potensielle katastrofer slik som global
oppvarming, giftspredning og kjernefysiske katastrofer.
Type I og type II-feil
Definisjoner
Type-I feil er at man avviser en sann nullhypotese. En nullhypotese
er en hypotese som sier at noe ikke er tilfelle. En nullhypotese kan være: «Melk er ikke
kreftfremkallende». Hvis det er sant at melk ikke er kreftfremkallende, er det en type-I
feil at man avviser eller drar i tvil at «melk ikke er kreftfremkallende». Legg merke
til at dette ikke er det samme som å si at «melk er kreftfremkallende». Vi står ikke
overfor en dobbel nekting som opphever hverandre.
Type-II feil er at man ikke avviser en falsk nullhypotese.
«Nikkel er ikke allergifremkallende» er en falsk nullhypotese, fordi det gis mange
eksempler på at nikkel faktisk er allergifremkallende. Type-II feil er da at man ikke
avviser påstanden at «nikkel er kreftfremkallende».
Tilstander der det er usikkerhet om risikoen
I de tilfeller hvor risikoen som hefter ved en handling/tilstand/teknologi er usikker,
f.eks. at man ikke vet om et stoff er helsefarlig, skal man da minimaliserer type-I feil
eller type-II feil?
Tradisjonelt har man fra vitenskapelig og teknologisk hold gått inn for å
minimalisere type-I feil fordi man da ikke står i fare for å avvise ting som viser seg
å være ufarlig. Bevisbyrden legges over på de som vil vise at noe er farlig. Så lenge
vi ikke har bevis for at noe er farlig, må vi kunne bruke det, er tankegangen her.
Motsatt hevdes det at rene naturvitenskapelige normer for å beregne risiko ikke er
tilstrekkelig i spørsmål om risiko på samfunnsnivå fordi det har med folks velferd å
gjøre. Her argumenteres det for å minimalisere type-II feil fordi det gir større
sikkerhet for offentlig helse og plasserer bevisbyrden hos de som vil innføre stoffet
eller hva det er som diskusjonen gjelder. Man argumenterer her også for at
risikopådytterne må bære bevisbyrden (om liten risiko) fordi årsakssammenhengen kan
være vanskelig å bevise og fordi de som utsettes for risikoen vil være mindre i stand
til å bære omkostningene ved feil risikovurdering enn risikopådytterne.
Vi kjenner denne problemstillingen kanskje bedre under slagordet «den omvendte
bevisbyrde». Det henspeiler nettopp på det forhold at å ta hensyn til type-I feil har
vært den tradisjonelle måten å løse dette på, mens det nå, fra for eksempel
miljøhold, forlanges at saken skal snus, at det er industrien som pådytter oss mulig
risikofylte produkter som må bevise sin uskyld.
Falsifikasjon av en hypotese lettere å oppnå enn bekreftelse
Det er imidlertid en forskjell i muligheten til å nå igjennom her. Det er mye enklere
å vise at en hypotese er feil enn at den er sann. Det skal bare et lite antall eksempler
til å vise at en teori er falsk. Men man kan underbygge en teori med positive data til
man blir blå i ansiktet. Og likevel kan man aldri med sikkerhet vite at det vil komme
data en gang i framtiden som vil falsifisere den. Denne innsikten har da også ført til
det krav, at en god teori bør inneholde en beskrivelse av hva som skal til for at teorien
er gal.
I forhold til type-I og type-II feil, er det da en epistemologisk fordel å legge
bevisbyrden på de som vil avkrefte en teori, f.eks. vise at «amalgamfyllinger er
helsefarlige», enn at man positivt skal vise at «amalgamfyllinger er ikke
helsefarlige».
Det er som sagt normalt fra naturvitenskapelig og teknologisk hold å ville
minimalisere type-I feil, dvs de synes ikke man bør bruke tid på å prøve å avkrefte
antatt sanne påstander om at noe er uten risiko.
Fra et samfunnssynspunkt er det derimot viktig at man avviser antatt falske hypoteser
om risikofrihet slik at man ikke bygger samfunnet på falsk trygghet. Epistemologisk er
det også mye enklere å avvise en falsk hypotese enn å begrunne en sann hypotese.
Det etiske aspekt
Beskytter vi produsentene eller samfunnet? Siden naturvitenskapene og produsentene
stort sett mener at ulemper må påvises før noe merkes som farlig eller tas bort fra
markedet, kalles type-I risiko ofte for "utviklers risiko" (risikoen for å
forkastet et harmløst produkt), mens type-II risiko benevnes "samfunnets
risiko" (risikoen for ikke å avvise en skadelig utvikling).
Det er altså en motsetning mellom hva som er risikofylt for en produsent eller
utvikler, enn for samfunnet. Minimaliserer vi produsentrisikoen så øker samfunnets
risiko, og omvendt.
Mange vitenskapsfolk minimaliserer utviklers risiko fordi det er konsistent med å
begrense falske positive teorier, fordi det er konsistent med bevis som kreves i
kriminalsaker (tvilen kommer den tiltalte til gode) og fordi det samsvarer med bayesisk
beslutningsteori.
Den teknologiske vitenskapen og deres produsenter burde minimalisert samfunnsrisikoen i
spørsmålet om anvendt teknologi ut fra følgende premisser:
1. Vi burde beskytte oss mot farer, før vi øker velferden.
2. Enkeltmennesker trenger mer beskyttelse enn produsenter
3. Samfunnsrisiko er ofte umulig å kompensere for.
4. Samfunnsrisiko er sjelden godtatt ved at allmennheten har samtykket
5. Produsenters rett til å tjene penger må veie mindre enn allmennhetens rett til
sikkerhet
Påført risiko
Når er det etisk legitimt å påføre noen en risiko? To viktige spørsmål knyttet
til distribusjonen av risiko må da avklares:
- Hvordan er ulempene av påført risiko fordelt?
- Hvordan er nytten av påført risiko fordelt?
D.Parfit argumenterer for at påført risiko er lite akseptabelt hvis nytten tilfaller
denne generasjon, mens kommende generasjoner må bære ulempene. Dette er
problemstillingen ved en rekke miljøskader, særlig i tilknytning til kjerneenergi.
Litteratur:
Beck, Ulrich (1992): Risk Society. Sage, London.
Harsanyi, J: (1975): "Can the Maximin Principle Serve as a Basis for
Morality?" in American Political Science Review 69: pp.594-605.
Parfit, D. (1983): "The Further Future: The Discount Rate" in D.MacLean and
P.Brown (eds.) Energy and the Future, Totowa, NJ: Rowman and Littlefield, pp.31-37.
Shrader-Frechette, Kristin (1995): "Risk" in New Encyclopedia of
Philosophy, Ed. Routledge,
Shrader-Frechette, Kristin (1985): Science Policy, Ethics, and Economical
Methodology. Kluwer. Boston
Fotnoter:
0) Artikkelen her er for en stor
del et resyme av Shrader-Frechette 1995.
1) Det samme som naturalismens feilslutning. Denne hevder, mer eller
mindre bevisst, at det er en enkel overgang fra «er» til »bør». Den er lett å
kritisere: At det finnes krig, er intet argument for at det bør være krig. At det finnes
sult, er intet argument for at det bør finnes sultne mennesker. Men likevel bygges mye av
samfunnet opp på er-bør strategier: Vi foretar en rekke meningsmålinger for å finne ut
hva folk mener om dette og hint moralske spørsmål, og hvis flertallet mener noe, da må
det også være moralsk rett. Tenk også på unnskyldningen vi så lett tyr til: «Men det
er jo så mange som gjør det.» Men om så 95% snøt på skatten, blir det jo ikke noe
mer rett å gjøre det. En annen sak er det at i en samfunn der man ikke kan enes om
normer og livsfundamenter, der synes dette som den eneste måten å komme ut av uføret
med hva vi gjør når vi mener forskjellig. Men har flertallet alltid rett? Pr.def?
Svein Sando, opr. versjon 20.11.96.
Denne artikkelen er vist 8486 ganger |