AI, Artificiell intelligens, Extrabetraktelser, Forskning, Konkurrens, Mänskligheten, Max Tegmark, Utplåning, Utvecklingspaus

Extrabetraktelse om AI och risken för mänsklighetens utplåning

av Göran Lambertz
Publicerad tisdag 1 augusti 2023

Detta är inte någon rolig betraktelse. Men jag lovar, den är extremt viktig.

I dag Sommarpratade Max Tegmark, professor i fysik vid Massachusetts Institute of Technology (MIT) i Boston. Han talade framför allt om AI (artificiell intelligens) och det hot mot mänskligheten som ligger i AI:s fortsatta utveckling.

Man kan tycka att det här är skåpmat, man hör ju talas om det nästan dagligen. Och de flesta tänker nog ungefär att ”nåja, det ordnar sig väl på något sätt”.

Recensionerna av programmet är därefter. Aftonbladets Kristoffer Bergström skriver t.ex. att lyssnarna ”genomlider 90 satans tråkiga minuter” och att programmet är ”supersegt, rentav, oavsett om man köper hans berättelse eller inte. Antingen har vi lyssnat på en trist alarmist som brett ut sig helt i onödan. Eller så ska vi alla dö. Fy fan.”. Och Dagens Nyheters Jörn Spolander skriver att ”som lyssnare bör man veta att han representerar en ganska extrem position i AI-debatten. Han är långt ifrån ensam om sina farhågor – men många andra forskare har en mindre dramatisk syn”.

Bergström föredrog att blunda helt för den risk som faktiskt finns för mänsklighetens utplåning. Och Spolander lyssnade nog inte till slutet av programmet. För där berättade Tegmark om det öppna brev den 30 maj i år där de främsta företagsledarna inom AI-området varnade för att de produkter som just dom försöker bygga skulle kunna utrota mänskligheten. Alltså det som Tegmark och andra länge har hävdat.

--

Max Tegmark säger att det finns tre olika sätt som AI kan utrota mänskligheten på. Läs gärna långsamt och försök förstå. Jag lovar att det är viktigt.

1. Illvillig användning. Eftersom man obestridligen kommer att kunna beordra AI att komma på saker som förbättrar människors hälsa, kommer man också att kunna beordra AI att hitta på sådant som försämrar hälsan, t.ex. ta fram den genetiska koden för nya dödliga virus. Sådana virus kommer att kunna bli mycket farligare än t.ex. covid och kan därför skapa en mycket dödligare pandemi. Om en illvillig person köper dödsvirus och släpper ut dem på olika ställen i världen kan det leda till mänsklighetens utrotning. Så en person med samma sorts hjärna som t.ex. de många skolskjutarna skulle kunna beordra AI att med hjälp av ett sådant dödligt virus utrota mänskligheten. – Vi måste alltså hålla AI-landvinningarna borta från farliga människor. (Därför är det väldigt viktigt att inte landvinningarna inom AI är fritt tillgängliga för alla. Att förespråka s.k. open source är utomordentligt oansvarigt.)

2. AI-konkurrens. Nästan hela världen har ett kapitalistiskt system byggt på konkurrens och maskinerna är snart smartare än människorna. Därmed kommer företag som bygger på anställning av maskiner och som leds av maskiner att kunna konkurrera ut företag som leds av människor. Arméer med AI och länder med AI kommer på samma sätt att kunna konkurrera ut arméer och länder som leds av människor. Därmed får vi en värld styrd av AI. Vi människor får till sist ett mycket litet värde. Det enda som kan förhindra detta är att AI av någon anledning vill ha oss människor kvar. Men det har forskarna än så länge inte kunnat finna något skäl till. – Vi kan därför inte konkurrera med AI, utan vi måste lära AI samarbete framför konkurrens. Det behöver inte vara för sent att göra detta.

3. Missriktad AI. Ju smartare maskinerna blir, desto viktigare är det att deras mål överensstämmer med våra. Släpper vi lös superintelligensen (där maskinerna har överlägsen intelligens och tänker själva), kommer maskinen att få som den vill. Vilken strategi människorna än kommer på, ligger maskinen ändå steget före. Maskinerna kommer att vara extremt bra på att uppnå sina mål. Därför måste målen vara kompatibla med våra. Man kan jämföra med hur vi människor behandlar djuren. Varför dödar vi t.ex. vissa djur genom att såga ner deras skogar och försämra deras levnadsbetingelser? Det gör vi för att vi har andra mål som vi sätter högre, och för att vi är smartare. Vi måste därför undvika att sätta människorna i samma situation i förhållande till maskinerna som djuren i dag har i förhållande till oss. Man kan tro att man kan stänga av en maskin om den ”går dåligt” och gör som vi inte vill att den ska göra. Men den kommer att försöka hindra oss, för annars kan den inte uppfylla sina mål. Den kommer att vilja roffa åt sig av resurserna, göra kopior av sig själv på nätet etc. Den kommer att bekämpa oss och bara bry sig om sina egna mål. – Det kan gå att få maskinerna att arbeta efter mänsklighetens mål. Men det är mycket komplicerat, för vi behöver 1. få AI att förstå våra mål, 2. få AI att anamma våra mål (idag ljuger AI ibland för att uppnå sina egna) och 3. få AI att inte överge målet bara för att den t.ex. är smartare och blir uttråkad (det är mycket svårare att ”uppfostra” AI än att uppfostra barn).

--

En sak är klar och det är Max Tegmarks viktigaste budskap, liksom numera nästan hela AI-världens:

Att släppa lös övermänsklig AI innan vi har löst problemen är oerhört dumt. Därför behövs det en utvecklingspaus som alla berörda respekterar.

Och under utvecklingspausen behöver det framför allt – som jag förstår det – tillses

1. att den mest långtgående utvecklingen av AI hålls borta från allmänheten,

2. att AI styrs bort från ohämmad medverkan i konkurrenssamhället, och

3. att AI fås att långsiktigt acceptera och arbeta för mänsklighetens mål.

Låt oss ge stöd åt en sådan utvecklingspaus!

Copyright © 2015-2024 Göran Lambertz