Pionjären inom artificiell intelligens, Eliezer Yudkowsky, har varnat för att mänskligheten kanske bara har några år kvar eftersom artificiell intelligens blir allt mer sofistikerad.

I en intervju med Guardian berättade han för skribenten Tom Lamont: ”Om du ställer mig mot väggen och tvingar mig att sätta sannolikheter på saker, har jag en känsla av att vår nuvarande återstående tidslinje ser mer ut som fem år än 50 år. Det kan vara två år, det kan vara 10.”

Yudkowsky, som grundade Machine Intelligence Research Institute i Kalifornien, talar om slutet för mänskligheten som vi känner den. Han sade att problemet är att många människor misslyckas med att inse hur osannolikt det är att mänskligheten kommer att överleva allt detta.

”Vi har en skärva av en chans att mänskligheten överlever,” varnade han.

Det är skrämmande ord från någon som VD:n för ChatGPT-skaparen OpenAI, Sam Altman, har identifierat som den som fick honom och många andra intresserade av artificiell generell intelligens och som varit ”avgörande för beslutet att starta OpenAI.”

Förra året skrev Yudkowsky i ett öppet brev i TIME att de flesta experter inom området anser ”att det mest sannolika resultatet av att bygga en övermänskligt smart AI, under något som liknar nuvarande omständigheter, är att bokstavligen alla på jorden kommer att dö.”

Han förklarade att det kommer en punkt när AI inte gör vad människor vill att den ska göra och inte bryr sig alls om sentient liv. Även om han tror att den typen av omsorg en dag skulle kunna införlivas i AI, åtminstone i princip, vet ingen för närvarande hur man gör det. Detta innebär att människor kämpar en hopplös kamp, en som han liknar vid ”1100-talet som försöker bekämpa 2000-talet.”

Yudkowsky sade att en AI som verkligen är intelligent inte kommer att stanna kvar i datorer, och påpekade att det nu är möjligt att mejla DNA-strängar till labb och få dem att producera proteiner åt dig, vilket betyder att en AI som ursprungligen bara finns på internet skulle kunna ”bygga artificiella livsformer eller direkt utvecklas till postbiologisk molekylär tillverkning.”

Han har också förklarat att AI kan ”använda superbio mot dig.”

”Om någon bygger en alltför kraftfull AI, under nuvarande förhållanden, förväntar jag mig att varje enskild medlem av mänskligheten och allt biologiskt liv på jorden dör kort därefter,” tillade han.

Datavetare har varnat åtminstone sedan 1960-talet att målen med de maskiner vi skapar inte nödvändigtvis kommer att stämma överens med våra egna.

Yudkowsky säger att lösningen är att ”stänga ner allt”.
Så hur kan vi stoppa detta? Enligt Yudkowsky måste mycket göras. Till exempel bör ett obestämt och globalt moratorium på att genomföra nya stora träningsomgångar införas, utan några undantag för militärer eller regeringar, även om det är svårt att föreställa sig internationellt samarbete i denna fråga från platser som Kina.

Han anser också att stora GPU-kluster bör stängas ner. Dessa är de stora datorgårdarna där världens kraftfullaste AI:er tränas och förfinas. Tak på mängden beräkningskraft som kan användas för att träna AI-system skulle också hjälpa, så länge de revideras nedåt i framtiden när träningsalgoritmerna blir mer effektiva.

Yudkowsky tycker att vi borde ”vara beredda att förstöra ett skurkaktigt datacenter med flyganfall.” Han skrev att till och med kärnvapenutbyte skulle kunna vara okej om det innebar att ta ut AI, även om han nu säger att han skulle ha använt ”mer försiktig formulering” på den särskilda punkten om han skulle skriva om stycket igen.

Även om vissa kanske anklagar honom för att sprida skräck eller vara sensationell, avslöjade den största undersökningen någonsin av AI-forskare, som släpptes förra månaden, att 16 % av dem är övertygade om att deras arbete inom AI kommer att leda till mänsklighetens utrotning.

naturalnews.com. AI-pionjären varnar för att mänsklighetens återstående tidslinje endast är några få år på grund av risken att ny framväxande AI-teknik kan förinta människorasen

1 KOMMENTAR

  1. AI är ju bara en programvara. Det är ju vi, eller snarare oligarkerna som bestämmer vad den ska användas till? Får väl slå av strömmen om AI blir för uppstudsig=).

LÄMNA ETT SVAR

Vänligen ange din kommentar!
Vänligen ange ditt namn här