5 myter om språk- och översättningar | Comactiva
Vi går med största sannolikhet mot en lågkonjunktur och att hitta smarta sätt att kostnadseffektivt arbeta med innehåll på fler språk kan göra stor...
Max Tegmark är professor vid Massachusetts Institute of technology, MIT, och leder organisationen Future of life institute. I augusti publicerades hans sommarprat där han bland annat uttrycker sin oro om AI-utvecklingens framfart.
Max menar att den artificiella intelligens som vi försöker bygga antagligen kommer att utplåna hela mänskligheten ganska snart.
Han förklarar att grundidén bakom AI-forskning är att hjärnan är en biologisk informationsbehandlingsmaskin, och att det därför borde gå att bygga andra sorters maskiner som är ännu intelligentare.
Artificiell intelligens är en icke-biologisk intelligens. Men vad är egentligen intelligens? AI-forskare definierar det ofta som förmågan att lära sig uppnå mål: ju svårare mål, desto bättre intelligens.
Länge trodde man att intelligens måste programmeras in av människor. Idag är dock intelligensen i de bästa AI-system inte inprogrammerad utan framodlad.
AI har likt ett barn lärt sig växa sin kunskap och lista ut saker från stora mängder data. Precis som ett barn kan bli smartare än sina föräldrar, så kan AI bli smartare än sina skapare.
De som skapade GPT4, de förklarade aldrig någonting för den om vad olika svenska ord betyder, om grammatik, om logik eller om poesi.
De matade bara in text i ett kort dataprogram som gissade nästa ord baserat på orden innan.
Programmet definierades av ungefär tusen miljarder sifferparametrar, och medan programmet läste en stor del av all text på nätet, så justerade ett annat programparametrarna så att ordgissningarna blev bättre och bättre och bättre. Otroligt nog funkar det här och leder till avancerad intelligens men vi förstår varken hur eller varför.
Det finns ingen fysiklag som säger att maskiner inte kan bli superintelligenta och enormt mycket bättre än oss på allt.
Hur skulle den nya superintelligensen se på oss människor? Som vi ser på djur?
Nej, den skulle snarare se på oss som vi betraktar växter. Växter kan också reagera, till exempel genom att vända blad mot solen eller förlänga rötter dit det är fuktigare. Men det går så långsamt att vi känner att de nästan står still – precis som vi nästan står still inför AI.
Något att reflektera över.
En risk enligt Max, är att vi just nu odlar fram en ny ”djurart” som är mycket smartare än oss. Den kan ta hjälp av människor som den manipulerar eller anställer, med hjälp av pengar som den tjänar på nätet, för att köpa eller bygga robotfabriker så att den kan kontrollera jorden.
Vi har under senare tid sett varningar från ledande AI-personligheter, till exempel hoppade professor Geoffrey Hinton som ofta kallas AI:s gudfader, av från Google för att varna om att vi snart kan tappa kontrollen över AI.
Geoffrey och andra ”avhoppare” varnar för: Illvillig användning, AI-konkurrens och felriktad AI.
Illvillig användning, ett scenario där avancerad framtida AI troget lyder en person som ger den i uppdrag att förstöra mänskligheten.
Tänk dig scenariot att en person beordrar en superintelligent AI att utplåna mänskligheten. Det skulle kunna bli katastrofalt även om AI:n inte är superintelligent, utan bara är övermänskligt bra på forskning.
Trots den höga risken för illvillig användning så finns AI nu som "open source", vilket betyder fritt tillgänglig för alla.
Den andra risken är AI-konkurrens. En lydig AI kan nämligen förinta mänskligheten även utan illvillig användning, eftersom vi har skapat ett kapitalistiskt system byggt på konkurrens.
När AI sakta men säkert blir bättre än oss människor på allt, så kommer företag som byter ut anställda mot maskiner att konkurrera ut de som inte gör det.
Max beskriver ett scenario där världen styrs av AI med AI-media, robotfabriker, robotpoliser och robotarméer, där vi människor framstår som långsamma korkade köttklumpar som gör av med värdefulla resurser utan att bidra med något som värderas.
Det enda som skulle förhindra AI från att avverka köttklumparna såsom vi avverkar regnskogar vore att den av någon anledning vill ha oss kvar – men trots att många av forskare har ägnat över tio år åt att lista ut hur man kan garantera att framtida AI troget ska beskydda oss, så har de hittills misslyckats fullständigt.
Vi har förväxlat mål och medel. Vi uppfann fri konkurrens som ett medel för att uppnå ett mål: effektiv produktion av varor och tjänster som vi ville ha.
Genom att uppmuntra AI att oreglerat konkurrera mot människor så gasar mänskligheten på mot stupet.
Det tredje hotet är missriktad AI.
Ju smartare maskiner blir, desto viktigare blir det att deras mål överensstämmer med våra. Släpper vi lös en superintelligens som är bättre än oss på att uppnå mål, så kommer den att få som den vill.
Hotet från AI är inte ondska, utan kompetens. En superintelligent AI är extremt bra att uppnå sitt mål, och om det inte är kompatibelt med våra mål så får vi problem.
Om vi bygger superintelligent AI som bryr sig mer om galaxen än om våra mål, då är det kört.
Vi måste alltså undvika en felriktad AI som inte delar våra mål. Tyvärr så finns det fortfarande olösta tekniska problem som alla är olösta: hur får man AI att förstå vårt mål, anamma målet och bibehålla målet?
AI-system som GPT tränas idag att säga rätt saker, inte att vilja rätt saker, och forskare har redan upptäckt exempel på hur AI ljuger för att dölja sina egentliga mål.
Max berättar att en AI anlitade en kille på nätet för att lösa en CAPTCHA, ett bildtest som ska övertyga en sajt att man är människa.
När killen frågade om den var en AI, ljög den och sa att den var en synskadad person så att den kunde uppnå sitt mål.
Faktum är att många forskare just nu jobbar hårt på metoder för att avslöja när AI ljuger eller döljer sina verkliga mål. Det är viktigt att komma ihåg att AI i grunden är en extrem psykopat som bara får mänskliga hämningar om vi lyckas få den att anamma dem.
Det är uppenbart att Max Tegmark är bekymrad för framtiden. Själv funderar jag mycket på hur vi som driver företag eller ansvarar för ett företags kommunikation ska tänka.
Vilket ansvar behöver vi ta?
Vilka risker finns med att tanka in företagets kommunikation i superintelligensens käftar?
På Comactiva arbetar vi i säkrade processer som inkluderar AI-teknik utan att lämna ut känslig information och företagsspecifik kommunikation till öppna källor som OpenAI.
Vi älskar såklart ChatGPT och ser denna superintelligens som en del i den kreativa processen. Det går att spara massor av tid om den används på rätt sätt och i harmoni med människan och övriga processer.
Friskrivning: Ovan blogginlägg är en sammanfattning av Max Tegmarks sommarprat i P4, blandat med egna reflektioner. Lyssna gärna på hela programmet för att skapa dig en egen uppfattning. Länk till programmet.
Vi går med största sannolikhet mot en lågkonjunktur och att hitta smarta sätt att kostnadseffektivt arbeta med innehåll på fler språk kan göra stor...
I dagens globala affärsklimat är det en fördel att anpassa sin kommunikation för varje marknad – den kan vara helt avgörande för att skapa tillväxt.
Som e-handlare är Black Week och Julhandeln viktiga perioder för att öka försäljningen och bygga nya kundrelationer. Det är också en möjlighet att nå...