TILLBEHÖR

De tre sakerna som en AI måste visa för att betraktas som kännande

En Google-utvecklare beslutade nyligen att en av företagets chatbots, en stor språkmodell (LLM) som heter LaMBDA, hade blivit kännande.

Enligt en rapport i Washington Post identifierar utvecklaren sig som en kristen och han tror att maskinen har något som liknar en själ – att den har blivit kännande.

Som alltid är fallet, “lever den?” nonsens har lyst upp nyhetscykeln – det är en saftig historia oavsett om du föreställer dig hur det kan vara om utvecklaren hade rätt eller dunkade på dem för att de är så dumma.

Hälsningar, humanoider

Prenumerera på vårt nyhetsbrev nu för en veckosammanfattning av våra favorit-AI-berättelser i din inkorg.

Vi vill inte dunk på någon här på Neural, men det är direkt farligt att sätta in den här typen av idéer i folks huvuden.

Ju mer vi, som ett samhälle, låtsas att vi är “thiiiis nära” att skapa kännande maskiner, desto lättare blir det för dåliga skådespelare, stora teknikföretag och startups av ormolja att manipulera oss med falska påståenden om maskininlärningssystem.

Bevisbördan bör ligga på de personer som gör påståenden. Men hur ska det beviset se ut? Om en chatbot säger “Jag är sentient”, vem får bestämma om det verkligen är det eller inte?

Jag säger att det är enkelt, vi behöver inte lita på någon enskild person eller grupp för att definiera känslor för oss. Vi kan faktiskt använda något extremt grundläggande kritiskt tänkande för att reda ut det själva.

Vi kan definiera en kännande varelse som en varelse som är medveten om sin egen existens och påverkas av den kunskapen: något som har känslor.

Det betyder att en kännande AI-“agent” måste kunna visa tre saker: byrå, perspektiv och motivation.

Byrå

För att människor ska betraktas som kännande, sapient och självmedvetna, måste vi ha handlingsfrihet. Om du kan föreställa dig någon i ett ihållande vegetativt tillstånd, kan du visualisera en människa utan agent.

Human agency kombinerar två specifika faktorer som utvecklare och AI-entusiaster bör sträva efter att förstå: förmågan att agera och förmågan att visa orsaksresonemang.

Nuvarande AI-system saknar agentur. AI kan inte agera om den inte uppmanas och den kan inte förklara dess handlingar eftersom de är resultatet av fördefinierade algoritmer som exekveras av en extern kraft.

AI-experten från Google som uppenbarligen har kommit att tro att LaMBDA har blivit kännande har nästan säkert förvirrat utförande för byrå.

Förkroppsligande, i detta sammanhang, hänvisar till förmågan för en agent att bebo ett annat subjekt än sig själv. Om jag spelar in min röst på en uppspelningsenhet och sedan gömmer den enheten inuti ett gosedjur och trycker på play, har jag förkroppsligat det kvav. Jag har inte gjort det kännande.

Om vi ​​ger den stuffy sin egen unika röst och vi gör bandspelaren ännu svårare att hitta, är den fortfarande inte kännande. Vi har bara gjort illusionen bättre. Oavsett hur förvirrad en observatör kan bli, agerar gosedjuret inte riktigt på egen hand.

Att få LaMBDA att svara på en uppmaning visar något som verkar vara action, men AI-system är inte mer kapabla att bestämma vilken text de ska mata ut än en Teddy Ruxpin-leksak kan bestämma vilka kassettband som ska spelas.

Om du ger LaMBDA en databas som består av inlägg på sociala medier, Reddit och Wikipedia, kommer den att mata ut den typ av text man kan hitta på dessa platser.

Och om du tränar LaMBDA uteslutande på My Little Pony wikis och skript, kommer det att mata ut den typ av text man kan hitta på de platserna.

AI-system kan inte agera med byrå, allt de kan göra är att imitera det. Ett annat sätt att uttrycka detta är: du får ut det du stoppar i, inget mer.

Perspektiv

Den här är lite lättare att förstå. Du kan bara se verkligheten från ditt unika perspektiv. Vi kan utöva empati, men du kan inte riktigt veta hur det känns att vara jag, och vice versa.

Det är därför perspektiv är nödvändigt för byrån; det är en del av hur vi definierar vårt “jag”.

LaMBDA, GPT-3 och alla andra AI i världen saknar någon form av perspektiv. Eftersom de inte har någon byrå finns det inget enskilt “det” som du kan peka på och säga till exempel: det är där LaMBDA bor.

Om du sätter LaMBDA inuti en robot, skulle det fortfarande vara en chatbot. Den har inget perspektiv, inget sätt att tänka “nu är jag en robot.” Den kan inte fungera som en robot av exakt samma anledning som en vetenskaplig miniräknare inte kan skriva poesi: det är ett smalt datorsystem som var programmerat att göra något specifikt.

Om vi ​​vill att LaMBDA ska fungera som en robot, måste vi kombinera det med smalare AI-system.

Att göra det vore precis som att tejpa ihop två Teddy Ruxpins. De skulle inte kombineras för att bli en Mega Teddy Ruxpin vars dubbla kassettspelare smälte samman till en enda röst. Du skulle fortfarande bara ha två specifika, distinkta modeller som kör nära varandra.

Och om du tejpar ihop en biljon eller så Teddy Ruxpins och fyller dem var och en med olika kassettband, skapa sedan en algoritm som kan söka igenom alla ljudfiler på relativt kort tid och associera data som finns i varje fil med en specifik fråga för att generera skräddarsydda utgångar… du kommer att ha skapat en analog version av GPT-3 eller LaMBDA.

Oavsett om vi pratar om leksaker eller LLM:er, när vi föreställer oss att de är kännande talar vi fortfarande om att sy ihop en massa vardagliga saker och agera som om den magiska gnistan från härkomsten har väckt den till liv som den blå älven som svarvar trä, målar , och tyg till en riktig pojke som heter Pinocchio.

Utvecklaren som blev lurad så lätt borde ha sett chatbotens påstående om att den “gillade att spendera tid med vänner och familj” som sin första ledtråd om att maskinen inte var medveten. Maskinen visar inte sitt perspektiv, den producerar bara nonsens för oss att tolka.

Kritiskt tänkande borde säga oss lika mycket: hur kan en AI ha vänner och familj?

AI är inte datorer. De har inte nätverkskort, RAM, processorer eller kylfläktar. De är inte fysiska enheter. De kan inte bara “bestämma” att kolla vad som finns på internet eller söka efter andra noder som är anslutna till samma moln. De kan inte se sig omkring och upptäcka att de är helt ensamma i ett labb eller på en hårddisk någonstans.

Tror du att siffror har känslor? Har siffran fem en åsikt om bokstaven D? Skulle det förändras om vi slog sönder biljoner siffror och bokstäver tillsammans?

AI har ingen agentur. Det kan reduceras till siffror och symboler. Det är inte en robot eller en dator längre än en buss eller ett flygplan fullt med passagerare är en person.

Motivering

Den sista biten i sentenspusslet är motivation.

Vi har en medfödd känsla av närvaro som gör att vi kan förutsäga kausala utfall otroligt bra. Detta skapar vår världsbild och tillåter oss att associera vår existens i förhållande till allt som framstår utanför den aktörsposition från vilken vårt perspektiv manifesterar sig.

Men det som är intressant med människor är att våra motivationer kan manipulera våra uppfattningar. Av denna anledning kan vi förklara våra handlingar även när de inte är rationella. Och vi kan aktivt och glatt delta i att bli lurade.

Ta till exempel handlingen att bli underhållen. Föreställ dig att du sätter dig ner och tittar på en film på en ny tv som är mycket större än din gamla.

Till en början kanske du blir lite distraherad av den nya tekniken. Skillnaderna mellan den och din gamla TV kommer sannolikt att locka dig. Du kan bli imponerad av bildens klarhet eller häpnad över hur mycket utrymme den enorma skärmen tar upp i rummet.

Men så småningom kommer du sannolikt att sluta uppfatta skärmen. Våra hjärnor är designade för att fixera vid de saker vi tycker är viktiga. Och efter 10 eller 15 minuter efter din filmupplevelse kommer du förmodligen bara att fokusera på själva filmen.

När vi är framför tv:n för att underhållas är det i vårt bästa intresse att avbryta vår misstro, även om vi vet att de små människorna på skärmen faktiskt inte finns i vårt vardagsrum.

Det är samma sak med AI-utvecklare. De borde inte bedöma effektiviteten av ett AI-system baserat på hur godtrogna de är för hur produkten fungerar.

När algoritmerna och databaserna börjar blekna bort i en utvecklares sinne som på tv-skärmen som en film spelas upp på, är det dags att ta en paus och omvärdera dina grundläggande övertygelser.

Det spelar ingen roll hur intressant utgången är när du förstår hur den skapas. Ett annat sätt att säga det: bli inte hög på ditt eget utbud.

GPT-3 och LaMBDA är komplexa att skapa, men de fungerar på en enda dumt enkel princip: etiketter är gud.

Om vi ​​ger LaMBDA en uppmaning som “hur smakar äpplen?” den kommer att söka i sin databas efter just den frågan och försöka sammanföra allt den hittar till något sammanhängande – det är där “parametrarna” vi alltid läser om kommer in, de är i princip biljoner av inställningsrattar.

Men i verkligheten har AI ingen uppfattning om vad ett äpple eller något annat faktiskt är. Den har ingen byrå, uppfattning eller motivation. Ett äpple är bara en etikett.

Om vi ​​skulle smyga in i dess databas och ersätta alla instanser av “äpple” med “hundshit”, skulle AI:n mata ut meningar som “hundskit gör en fantastisk paj!” eller “de flesta människor beskriver smaken av hundskit som lätt, krispig och söt.” En rationell person skulle inte blanda ihop denna prestidigitering med förnuft.

Heck, du kunde inte ens lura en hund med samma trick. Om du lägger hundskit i en matskål och sa till Fido att det var dags för kvällsmat, skulle hunden inte blanda ihop det för kibbit.

En kännande varelse kan navigera i verkligheten även om vi ändrar etiketterna. Den första engelsktalande som någonsin träffade en fransktalande tyckte inte plötsligt att det var okej att sticka sin arm i en fransk eld eftersom de kallade det en “feu”.

Utan byrå kan en AI inte ha perspektiv. Och utan perspektiv kan det inte ha motivation. Och utan alla dessa tre saker kan den inte kännas.

Botón volver arriba

Ad blocker detected

You must remove the AD BLOCKER to continue using our website THANK YOU