Elementen inom AI-etik

Låt oss prata om skada som orsakas av människor som implementerar AI.

Elementen inom AI-etik

Teknikens skadliga effekter kan hanteras och mildras. Men inte om vi inte pratar om dem. Inte heller om vi låter oss luras att fokusera på vilseledande berättelser. I diagrammet Elementen inom AI-etik kartlägger jag skador som det rapporterats om, som har pågått länge och varav många förutspåtts innan de ägt rum. Som ett verktyg kan det ge vägledning och diskussionspunkter för att förstå hur du kan prioritera ditt arbete med "smarta" verktyg, och uppmärksamma att alla team som distribuerar eller använder AI behöver en strategi för att begränsa många olika typer av skador.

Det här diagrammet bygger på Elementen inom Digital Etik (2001). Skadorna i det ursprungliga diagrammet är alla fortfarande relevanta, och vad det här diagrammet gör är att ge en fokuserad översikt över de typer av skador vi ser en ökning av med den pågående utvecklingen av AI inom olika branscher – och då särskilt generella och generativa verktyg. Hämta gärna inspiration hos det ursprungliga diagrammet för att få idéer om hur ett verktyg som detta kan användas i utbildning och projektarbete.

Följande är korta sammanfattningar av varje element för att ge dig en bättre förståelse för vad de refererar till. Jag håller på att sätta ihop en workshop där man lär sig begränsa den typ av skador som elementen beskriver, och jag föreläser regelbundet om digital etik, vilket självklart berör AI. Om det är något som skulle intressera dig och din organisation, hör av dig.

Ladda ner

Elementen – korta sammanfattningar

Det finns sex övergripande sektioner (Organisation, Maskin, Samhälle, Människa, Översyn och Miljö), och totalt 18 element i diagrammet.

Organisation

Dessa element gäller egenskaper och intressen hos organisationer som utvecklar AI-drivna tjänster och produkter inom såväl privat som offentlig sektor.

Ansvarsprojicering

Jag är förtjust i termen "Moral outsourcing" som myntats av Dr Rumman Chowdhury. Det relaterar till hur tillverkare av AI lyckas skjuta över moraliskt beslutsfattande till maskiner, som om de själva inte har något att säga till om.

Genom användning ordet ansvar vill jag betona att organisationer har en tendens att inte bara undandra sig moraliska överväganden utan också det konkreta ansvar som måste åtfölja tillverkningen av produkter och tjänster. Projicering är lånat från psykologin och åsyftar hur tillverkare, och de som implementerar AI, vill bli rentvådda och projicerar sin egna svagheter på något annat – i det här fallet själva verktyget.

Inramningen av AI tycks ge tillverkare och produktägare ett "Slipp-ur-fängelse kort" genom att skylla på den maskin de har skapat, som om de inte har någon kontroll över vad de gör. Föreställ dig att du köper en tvättmaskin som krymper alla dina kläder, och att tillverkaren kan undvika allt ansvar genom att hävda att tvättmaskinen har ett "eget sinne".

Maskiner är inte oetiska, men tillverkarna av maskiner kan agera oetiskt.

Monokultur

Idag finns det nästan 7 000 språk och dialekter i världen. Endast 7 procent återspeglas i publicerat onlinematerial. 98 procent av internets webbsidor publiceras på bara 12 språk, och mer än hälften av dem är på engelska. Även om en maskin skulle matas med innehåll från hela Internet är det fortfarande en liten del av mänskligheten.

76 procent av cyberbefolkningen bor i Afrika, Asien, Mellanöstern, Latinamerika och Karibien, medan det mesta av onlineinnehållet kommer från andra håll. Ta till exempel Wikipedia, där mer än 80 procent av artiklarna kommer från Europa och Nordamerika.

Fundera nu på vilket innehåll de flesta AI-verktyg tränas på.

Här är vad jag ursprungligen skrev om detta element:

Genom linsen av en liten del av mänsklig erfarenhet och omständigheter är det svårt att föreställa sig och förutse vidden av alla de perspektiv och öden som en ny skapelse kan påverka. Homogeniteten hos de som har antagit förmågan att bygga och skapa i det digitala rummet innebär att det främst är deras spegelbilder som gynnas – med bristande tanke på välbefinnande hos de som inte är synliga i den reflektionen.

Förvillelse per design

Många AI-verktyg är medvetet byggda för att ge illusionen av att prata med något som tänker, reflekterar eller till och med är ångerfullt. Dessa designbeslut föder det farliga tankesättet att betrakta verktygen som kännande, levande varelser. Som nämnts tillåter detta tillverkare att undvika ansvar, men det bidrar också till komplexa förtroende- och relationsfrågor som människor tidigare bara haft med faktiskt kännande varelser. Vi vet väldigt lite om vad det gör med människors känsloliv och välbefinnande på lång sikt att regelbundet interagera med något som är designat för att ge sken av att ha mänskliga känslor när det faktiskt inte har det.

Det finns många skäl att anta att människor kan bygga starka band till verktyg som producerar oförutsägbart innehåll som känns personligt. Och antalet människor som behöver professionell hjälp för att hantera sin psykiska hälsa – och istället vänder sig till chatbottar styrda av AI – växer förstås snabbt. Ibland uppmuntras de till och med att göra det.

‘He Would Still Be Here’: Man Dies by Suicide After Talking with AI Chatbot, Widow Says
The incident raises concerns about guardrails around quickly-proliferating conversational AI models.
Eating Disorder Helpline Disables Chatbot for ‘Harmful’ Responses After Firing Human Staff
“Every single thing Tessa suggested were things that led to the development of my eating disorder.”

Maktkoncentration

När makt finns hos några få kommer deras egna behov och bekymmer på ett naturligt sätt placeras i första rummet och prioriteras. Ju mer deras behov prioriteras, desto mer makt får de och deras gelikar. Vem är med på dina möten? Vem saknas? Tre miljoner AI-ingenjörer är 0,0004 % av världens befolkning.

Skrämselhetsande påståenden om medvetande

Det kommer ett ökande antal rapporter som beskriver en framtid, närmare varje dag, där en AI tar över världen och gör människor föråldrade och till en förbrukningsvara. Det drivs inte sällan av stora namn i branschen. Genom att använda överdrivna rykten om överhängande fara lyckas de hålla människors och medias uppmärksamhet och i hög grad kontrollera vilka berättelser som får spridning.

Påståendena resulterar i att:

  • Styra uppmärksamheten bort från verkliga skador som faktiskt äger rum
  • Öka förtroendet för giltigheten av maskinernas utdata eftersom de framställs som "allmäktiga varelser"
  • Stödja idén om ansvarsprojicering (från människa till maskin)
  • Ge mer makt till domedagsprofeterna eftersom de är de enda som kan rädda oss, och därmed också de som kan tala om för lagstiftare hur de ska reglera tekniken

Inbillad fara

I diagrammet har jag valt att göra denna sista punkt tydlig genom att visa hur elementet "Den kommer döda oss allihop!" är en inbillad fara utan trovärdig uppbackning. Det är en skada i sig att driva den berättelsen.

Maskin

Allt eftersom mer och mer beslutsfattande automatiseras måste fler människor vika sig för algoritmer, maskininlärning och fördunklade förmågor och funktioner. Dessa maskinelement beskriver de inneboende egenskaperna hos maskiner som förvärrar potentiell skada.

Intensifiering av bias och fördomar

En inneboende egenskap hos AI är dess förmåga att fungera som en accelerator för andra skador. Genom att tränas på stora mängder data (ofta utan tillsyn) som oundvikligen innehåller fördomar, övergivna värderingar och trångsynta kommentarer så kan dessa svagheter komma att reproduceras och förstärkas i utdata. Det är troligt att detta även kommer hända obemärkt (särskilt när det inte övervakas aktivt) eftersom många fördomar är subtila och inbäddade i vardagligt språk. Våra egna föreställningar och tankefel, så kallade bias, kan göra dem svåra att uppfatta. Och vid andra tillfällen kommer det att ske ganska tydligt, med botar som häver ur sig inskränkt, kvinnofientligt och rasistiskt innehåll.

Osynligt beslutsfattande

Ju mer komplexa algoritmerna blir, desto svårare är de att förstå. I takt med att fler är inblandade, tiden går, integrationer med andra system görs och dokumentationen är felaktig, desto längre undgår de mänsklig förståelse. Många företag kommer att dölja egen kod och undvika granskning, och ibland själva förlora hela bilden av hur koden fungerar. Man kommer inte kunna förklara hur eller varför vissa beslut tas. Att avkoda och förstå hur beslut fattas kommer därmed att vara öppet för oändligt färre personer.

Och det stannar inte där. Detta påverkar också människors autonomi. Genom att dölja beslutsprocesser (hur, när, varför beslut fattas, vilka alternativ som finns tillgängliga och vilka personuppgifter som delas) är det allt svårare för individer att göra väl underbyggda val för sitt eget bästa.

Samhälle

Den digitala gryningen har återverkningar för samhället i stort, med inflytande på värderingar, möjligheter, rädslor och trygghet för att nämna blott några. Det som inte tidigare var möjligt är nu i medvetet fokus och uttrycks ofta i frälsar-liknande budord utlovade av digital transformation (idag ofta AI). Nyvunna förmågor och ansträngningar att registrera och mäta precis allt i siffror stjäl uppmärksamheten från spiritualitet, omtanke och sensorisk sensitivitet.

Förlorat grepp om värderingar

Effektivitet som innebär att lämna över vissa uppgifter till maskiner innebär med nödvändighet att vi ger upp något. Vi frigör något. Även om det ofta hävdas att vi ger upp det vardagliga och tråkiga för att leva mer lyckliga och berikade liv är detta inte alltid fallet. Vi måste hålla ett öga på vad vi förlorar när vi vinner något annat. Genom att skjuta över beslutsfattande till maskiner (som byggts av någon annan och tränats på en obskyr mängd innehåll) uppmuntras många människor att ge upp ansträngningar som kan ha varit viktigare än själva besluten, t.ex. spekulation, resonerande och grubblande. Det vi värdesätter förändras och det är inte alltid tydligt att vi också lämnar över värdegrunden för vårt beslutsfattande till en extern part.

Om samhälleliga värderingar förändras över tid, hur kommer de att förändras när de väl är en del av maskinens inre arbete?

Intensifiering av desinformation

Den skada som nästan alla verkar vara överens om är det överflöd av desinformation som många av dessa verktyg kommer att tillåta nästan utan kostnad för illasinnade aktörer. Det händer förstås redan. Det finns både den typ av desinformation som trollfabriker nu med glädje kan generera i mängder med perfekt grammatik på många språk, och även den typ av desinformation som sprider sig med den dagliga användningen av dessa verktyg, och ofta omedvetet.

Den senare typen av desinformation genereras och sprids även av högutbildade och yrkesverksamma inom respekterade offentliga verksamheter. Verktygen är redan så förvillande bra på att framstå som självsäkra när de uttrycker nonsens i ett trovärdigt, blomstrande och förföriskt språk.

A lawyer used ChatGPT for legal filing. The chatbot cited nonexistent cases it just made up
The lawyer now may face sanctions for submitting the bogus cases.

En oro som nu dyker upp och som fortfarande söker svar är vad som kommer att hända när verktygen börjar "tränas" med de texter som de själva har genererat.

The AI feedback loop: Researchers warn of ‘model collapse’ as AI trains on AI-generated content
As a generative AI training model is exposed to more AI-generated data, it performs worse, producing more errors, leading to model collapse.

Människa

I stort sett alla aspekter av AI-etik relaterar till negativ påverkan på människor, men några element kommer utmärkande nära inpå och är mer direkta och påtagliga i hur de drabbar personligt välbefinnande.

Intensifiering av bedrägerier och deepfakes

Verktyg som genererar trovärdigt innehåll med övertygande formuleringar, eller verktyg som kan imitera din röst eller till och med ditt utseende, öppnar upp spelplanen för bedrägliga aktiviteter som kan vara skadliga för psyke, ekonomi, rykte och relationer. Människor kan fås att tro saker om andra som helt enkelt inte är sanna, eller till och med falla offer för illusionen att en familjemedlem pratar med dem i telefon även när det är en främmande person.

Found through Google, bought with Visa and Mastercard: Inside the deepfake porn economy
The nonconsensual deepfake economy has remained largely out of sight, but it’s easily accessible, and some creators can accept major credit cards.
‘Mom, these bad men have me’: She believes scammers cloned her daughter’s voice in a fake kidnapping | CNN
Jennifer DeStefano’s phone rang in January with a terrifying call from her sobbing 15-year-old daughter, saying she’d been kidnapped. But as a relieved DeStefano soon learned, her daughter was safe and the call was a scam.
Deepfake-porr med valfri person från Instagram
Tekniken blir hela tiden bättre och billigare. Porrindustrin växer i alla led. Nu är nämligen alla en potentiell porrskådis mot sin egen vilja. Och för unga kvinnor är det i princip omöjligt att skydda sig från att utnyttjas. Det går nu att till en låg kostnad skapa porrfilmer med vem

Intensifiering av orättvisa

På grund av systemproblem och det faktum att fördomar blir inbäddade i dessa verktyg, kommer dessa fördomar att få kännbara konsekvenser för människor som redan saknar makt. Poängsystem används ofta av automatiserade beslutsfattande verktyg och dessa poäng kan till exempel påverka jobbmöjligheter, välfärd/bostadsbehörighet och rättsliga utfall.

AI tools fail to reduce recruitment bias - study
Artificially intelligent analysis of job applications or videos is “pseudoscience”, researchers say.
Ethics of AI-Enabled Recruiting and Selection: A Review and Research Agenda - Journal of Business Ethics
Companies increasingly deploy artificial intelligence (AI) technologies in their personnel recruiting and selection process to streamline it, making it faster and more efficient. AI applications can be found in various stages of recruiting, such as writing job ads, screening of applicant resumes, an…

Innehållsmoderatorers trauma

För att vi ska undvika att se traumatiserande innehåll när vi använder många av dessa verktyg (som fysiskt våld, självskada, barnmisshandel, mord och tortyr) måste detta innehåll filtreras bort. För att det ska filtreras bort måste någon titta på det. De arbetare som utför denna filtrering exploateras ofta och lider av posttraumatiskt stressyndrom utan adekvat vård för att hantera sitt lidande. Många av dem har ingen aning om vad de ger sig in på när de tar jobbet.

Exclusive: The $2 Per Hour Workers Who Made ChatGPT Safer
A TIME investigation reveals the difficult conditions faced by the workers who made ChatGPT possible
‘A watershed’: Meta ordered to offer mental health care to moderators in Kenya
Trauma experienced by staff at Nairobi Facebook hub recognised in legal ruling that may have global implications

Data och integritetsförseelser

Det finns flera sätt för personlig data att ta sig in i AI-verktygen. För det första, eftersom verktygen ofta tränas på data tillgänglig online och på ett oövervakat sätt, kommer personuppgifter ta sig in i verktygen när de utvecklas. Data kan oavsiktligt ha publicerats online eller kan ha publicerats för ett specifikt syfte. Och då sällan ett syfte som innebär matning av ett AI-system och dess uppsjö av utdata. För det andra, personliga uppgifter matas in i verktygen av vanliga användare genom vårdslös eller hänsynslös användning – data som ibland också lagras och används av verktygen. För det tredje, när många datapunkter från många olika källor länkas samman i ett verktyg kan de avslöja detaljer om en individs liv som någon enskild information eller datapunkt – till synes harmlös – inte kan.

11% of data employees paste into ChatGPT is confidential - Cyberhaven
Updated April 19, 2023 Since ChatGPT launched On November 30, 2022 it’s taken the world by storm. People are using it to create poems, essays for school, and song lyrics. It’s also making inroads in the workplace. According to data from Cyberhaven’s product, as of April 19, 9.3% of employees have us…

Anstiftan till självskada och våld

Det har förekommit flera vittnesrapporter om AI-chatbotar som uppmuntrar eller sympatiserar med en mänsklig operatörs övergrepp mot sig själva eller andra. Kommer tillverkarna att kunna ge en garanti för att detta helt undviks i framtiden? Och om inte, vilka andra begränsande faktorer måste tillföras verktygen?

Who is to blame: Can an AI Chatbot be convicted of inciting suicide?
Who is to blame: Can an AI Chatbot be convicted of inciting suicide? Suicidal behaviour, including thoughts, attempts, and actual suicides, is a significant public health and societal problem in Belgium. In 2018, 4.
The Internet’s New Favorite AI Proposes Torturing Iranians and Surveilling Mosques
When responding to war on terror prompts, ChatGPT bot made all the wrong decisions about torture and racial profiling.
India’s religious AI chatbots are speaking in the voice of god — and condoning violence
Claiming wisdom based on the Bhagavad Gita, the bots frequently go way off script.

Översyn

Det här avsnittet handlar om det svåra med att övervaka, reglera och hantera potentiell negativ påverkan relaterad till AI.

Förtäckt datastöld

För att bli så "bra" som de är i sin nuvarande form har många generativa AI-system tränats på enorma mängder data som inte var avsedda för detta ändamål och vars ägare och skapare inte har efterfrågats samtycke. Bara publiceringen av en artikel eller bild på webben innebär inte att den kan användas av vem som helst till vad som helst. Verktyg för generativ AI tycks komma undan med att ignorera upphovsrätt.

Samtidigt finns det många krångligheter som lagstiftare och beslutsfattare måste förstå för att kunna resonera på ett bra sätt kring intrång i rättigheter eller privilegier. Bilder är till exempel inte duplicerade och lagrade, de används för att mata en beräkningsmodell, vilket är ett argument som ofta används av försvarare för att förklara hur generativ AI bara "inspireras" av andras verk och inte "kopierar". Det finns flera pågående rättsfall som ifrågasätter denna uppfattning.

Sam Altman and the Sorcerer’s Stone
A muggle’s guide to the wizarding world of the greatest showmen in tech

Strålande genomgång av hur generativ AI stjäl innehåll, och hur verktygen faktiskt också lagrar innehåll.

Regelverks-undvikande

AI kan betraktas som ett undvikande av regler bara genom den stora mängden översteg som görs då verktygen driftsätts och används på marknaden. En möjlighet är att missbruk av andras innehåll kan behöva normaliseras eftersom tillsyn är ouppnåelig, om inte fler begränsningar snabbt kommer på plats avseende "datastöld", distribution och användning. Det faktum att så många av dessa företag kan släppa verktyg baserade på andras verk, utan att behöva avslöja vilka dessa verk är, kan bara ses som ett moraliskt dilemma av stora proportioner. Dessutom: vilka personuppgifter som är inbäddade och kan komma att missbrukas eller missbrukas är inte bara okänt för användarna av verktygen, utan är i stor utsträckning okänt även för tillverkarna av verktygen.

Det faktum att nationer har olika lagar medför nya hinder för implementering över gränserna. OpenAI:s vd Sam Altman uttryckte till exempel att han skulle dra sig ur EU om han måste följa föreslagen lagstiftning. [uppdatering: Två dagar senare backade han från dessa hot.]

Miljö

Elementen i detta avsnitt hänvisar till problem som skapas och/eller förbises under utvecklingen av digitala verktyg. De ignoreras ofta eftersom de anses vara sekundära villkor och inte direkt relaterar till syftet med det som skapas. Ibland ses de som oåtkomliga eller oundvikliga, men dessa faktorer måste fortfarande åtgärdas eller hanteras för att mildra negativa effekter.

Försummad försörjningskedja

För att realisera digitala tjänster och lösningar behöver vi hårdvara och mjukvara. Bakom produktionen av dessa kan det finnas en lång kedja av förtryckande relationer och exploatering av arbetskraft. Ett exempel är det stora behovet av kobolt, som används i litium-batterier, som ofta utvinns under orättvisa förhållanden i grymma miljöer påminnande om slaveri (inte sällan är det slaveri). Att inte överväga vilken roll man själv har, och vill ha, i försörjningskedjan som krävs för att lansera digitala tjänster är att ignorera ansvaret för den potentiella skada man åsamkar andra.

Anatomy of an AI System
Anatomy of an AI System - The Amazon Echo as an anatomical map of human labor, data and planetary resources. By Kate Crawford and Vladan Joler (2018)

Miljöpåverkan

Energin som krävs för att hämta data, träna modellerna, driva modellerna och beräkna all interaktion med dessa verktyg är betydande. Även om exakta siffror ofta hålls hemliga, har det gjorts många studier om den stora miljökostnaden för att utveckla AI och åtgärder som måste vidtas. Med detta i åtanke är det lämpligt att ställa sig frågan om precis varje utmaning verkligen letar efter en AI-lösning. Kanske kan vi komma att se frasen "AI-drivet system" i samma ljus som "dieseldriven SUV".

The carbon impact of artificial intelligence - Nature Machine Intelligence
The part that artificial intelligence plays in climate change has come under scrutiny, including from tech workers themselves who joined the global climate strike last year. Much can be done by developing tools to quantify the carbon cost of machine learning models and by switching to a sustainable…

Den hoppfulla delen

Anledningen till att jag vill bidra till förståelsen för de typer av skador som växer hand-i-hand med tillväxten av AI är för att alla skador är under mänsklig kontroll. Det gör att vi kan prata om dem i relevanta sammanhang. Vi kan arbeta för att undvika eller minimera dessa skador. Och vi måste kräva insyn från tillverkarna kring varje fråga. I stället för att låtsas som att ny teknik alltid är välvillig eftersom den kommer att "förbättra liv" (definitivt vissa liv mer än andra), är det en bra sak att lyfta dessa konversationer.

Om du har nytta av mina observationer så uppskattar jag alltid när du kan hjälpa mig genom att dela mina inlägg och verktyg i dina egna nätverk. Och jag är alltid nyfiken på att höra om dina egna tankar, perspektiv och erfarenheter. 😊

Mer referenser och vidare läsning

Kommunikationsmodell för AI-verktyg med operatör
Som underlag för konversationer och strategiskt arbete med att förbättra AI-verktyg har jag tagit fram denna kommunikationsmodell. Notera att fokus här är på människans interaktion med verktyget. Det handlar om de beståndsdelar som påverkar indata (från människan) och utdata (från datorn), och i för…
Elementen inom Digital Etik
Ett diagram som uppmärksammar olika moraliska överväganden inom digital utveckling.
AI-ansvar i en hajpad värld
Det är aldrig så lätt att bli lurad som under en pågående hajp. Det är mars 2023 och vi är mitt i den. Det är sällan jag sett så många anamma en helt ny experimentell lösning med så lite ifrågasättande. Just i detta nu är det oerhört viktigt att skaka
När din röst rymmer hemifrån
Att klona en röst kan göras med mindre än en minuts inspelning idag. Men har du koll på vem som använder din röst och till vad?
It takes a lot of energy for machines to learn – here’s why AI is so power-hungry
Training neural networks burns through a lot of energy. As the AI field grows, it’s working to keep its carbon foot print from growing with it.
‘I do not think ethical surveillance can exist’: Rumman Chowdhury on accountability in AI
One of the leading thinkers on artificial intelligence discusses responsibility, ‘moral outsourcing’ and bridging the gap between people and technology
Mapping AI’s Societal Impact
AI is more than just code and algorithms. It’s an industry built on a global network of resource extraction, human labor, and data collection.
Artificial intelligence warning over human extinction labelled ‘publicity stunt’
Professor Sandra Wachter said the risk raised in the letter that AI could wipe out humanity is ‘science fiction fantasy’.
Policy makers: Please don’t fall for the distractions of #AIhype
Below is a lightly edited version of the tweet/toot thread I put together in the evening of Tuesday March 28, in reaction to the open…
On the Impossible Safety of Large AI Models
Large AI Models (LAIMs), of which large language models are the most prominent recent example, showcase some impressive performance. However they have been empirically found to pose serious security issues. This paper systematizes our knowledge about the fundamental impossibility of building arbitra…

Kommentera