Artificiell Intelligens Historia: Historien om AI
Admin / April 10, 2024
Artificiell intelligens har kommit att bli en av de hetaste och mest diskuterade termerna under de senaste åren. Användningen av AI har fullkomligt exploderat och tekniken utvecklas i otroligt snabb takt.
Även om många blivit bekanta med termen under de senaste åren är det faktiskt en teknik som har existerat i flera decennium. Det är bara att utveckligen gjort enorma framsteg de senaste åren och därmed växt enormt i användning.
Artificiell intelligens är en väldigt bred term som idag har stort genomslag i vårt samhälle och nu implementeras i alla aspekter av vårt samhälle i en snabb takt. Detta inkluderar allt från innehållsskapande, administration, självkörande bilar, robotar, hälso- och sjukvården, och mycket mer.
Men även om användningen av AI ökar i snabb takt har resan dit varit långt ifrån rak och med en så avancerad teknik som AI faktiskt är har det krävs enorm forskning och utveckling för att komma till den punkt idag.
Om du är ny till termen AI kan det enklast beskrivas som datoralgoritmer och system som är utformade för att utföra uppgifter som normalt kräver mänsklig intelligens. Det inkluderar funktioner som maskininlärning, naturlig språkbearbetning, datorseende och mycket mer. En viktig förmåga hos AI är att lära sig av data över tid, analysera stora datamängder, dra slutsatser, och lösa problem på ett sätt som liknar mänskligt tänkande.
Utvecklingen av AI går extremt fort och tekniken blir mer och mer avancerad för varje år som går. Detta är utan tvekan en av de viktigaste teknologiska utvecklingarna under de senaste årtiondena och tekniken har redan visat sig revolutionera sättet vi gör saker på och förändra en mängd olika områden i grunden. Detta inkluderar allt från att öka precision och snabbhet i diagnoser inom sjukvården till att öka effektiviteten genom automatisering av en mängd olika uppgifter, och mycket därtill.
Många har blivit bekanta med AI bara under de senaste åren men detta får oss naturligtvis att undra: hur har vi kommit till den punkt vi är idag och vad är bakgrunden och historian till denna teknik? Det är precis det vi ska titta närmare på i denna artikel.
De tidiga rötterna av AI
Även om AI är en term som fullkomligt exploderat under de senaste åren är det faktiskt någonting som människor har arbetat med och forskat på under en lång tid. Rötterna till AI sträcker sig ändra bak till tidigt 1900-tal då grundläggande koncept och idéer som skulle lägga grunden för AI-forskning lades.
Alan Turing och Turing-testet
Det första och kanske viktigaste steget för utveckligen av AI var år 1950 då matematikern Alan Turing presenterade idén om det berömda "Turing-testet" i sin artikel "Computing Machinery and Intelligence". Detta ses som en av de viktigaste och första stegen för utveckligen av vad vi idag känner som AI. Hans test gick ut på att bedöma en dators förmåga att utföra intelligent beteende såsom mänsklig konversation. Turing-testet blev ett viktigt verktyg för att diskutera och utvärdera utvecklingen av AI.
McCulloch-Pitts neuronmodell
Ett annat viktigt framsteg inom utveckligen av AI var år 1943 då neurologen Warren McCulloch och logikern Walter Pitts presenterade en banbrytande artikel som beskrev ett enkelt neuralt nätverk baserat på binära enheter. Denna är känd som McCulloch-Pitts neuronmodell.
Modellen var ett tidigt försök att efterlikna hjärnans funktioner och markerade början på studierna av neurala nätverk inom AI-forskningen.
Dartmouthkonferensen och begreppet "Artificiell Intelligens"
År 1956 är ett annat viktigt år för utveckligen av artificiell intelligens då en grupp forskare samlades vid Dartmouth College under ledning av John McCarthy och Marvin Minsky för den första konferensen om artificiell intelligens. Denna konferens ses därmed som den officiella början på AI-fältet då man började introducera termen "artificiell intelligens" och definiera dess mål och omfattning. Under konferensen lades grunden för många tidiga AI-projekt och forskningsinriktningar.
1950-talet: Utvecklingen av "Perceptronen" av Frank Rosenblatt
Ett annat viktigt genombrott i AI:s historia skedde under 1950-talet då Frank Rosenblatt utvecklade en modell som kallades ”Perceptionen”. Dena modell blev en av de första första försöken att efterlikna hjärnans funktioner genom att skapa en matematisk modell av en enkel neuronnod.
Bakgrunden till detta genombrott var att Rosenblatt blev inspirerad av tidigare arbeten inom neurovetenskap och psykologi som föreslog att hjärnan fungerar genom att bearbeta information genom enkla neuroner som är sammankopplade i nätverk. Detta koncept användes därmed som grund för att utforma Perceptionen vilken är en enkel form av ett neuralt nätverk.
Kort sammanfattat är Perceptionen en enkel algoritm som består av en eller flera binära indata, alltså 1:or eller 0:or, som matas in i en nod. Noden applicerar sedan en ”viktad summa” av indata och levererar sedan resultatet genom en tröskelfunktion för att generera utdata som också kan vara binär.
Med Pereptronen utförde Rosenblatt flera experiment inom mönsterigenkänning och klassificering. En tillämpning för hans modell var att kunna skilja mellan två typer av geometriska former baserat på deras geometriska egenskaper.
Även om perceptionen var ett viktigt framsteg i den artificiella intelligensens historia hade den flera begränsningar. Till exempel kunde hans modell endast lösa linjära separerbara problem. Modellen var inte heller kapabel att lära sig komplexa mönster som inte var linjärt separerbara. Detta borde att Rosenblatts modell fick viss kritik då man ifrågasatte modellens användbarhet och tillämpningsområden.
Modellen hade sina begränsningar men den kom att bana väg för senare forskning inom neurala nätverk och maskininlärning vilket visar på att varje framsteg, om än litet, har varit viktig för utveckligen av artificiell intelligens i dess historia.
Symbolisk AI
Under 1960- och 1970-talet pågick en hel del forskning och utveckling inom det breda fältet som är artificiell intelligens. En av de viktigaste framstegen från denna forskning är uppkomsten av symbolisk AI.
Arbetet med att utveckla symbolisk AI var främst fokuserat på att försöka representera kunskap och problemlösning genom symboler och regler vilket öppnade upp nya möjligheter för att efterlikna mänskligt tänkande.
John McCarthy, som vi diskuterade tidigare - som också var en av grundarna till Dartmouthkonferensen - var en ledande röst inom symbolisk AI. År 1958 utvecklade han programspråket Lisa som sedermera kom att bli ett av de mest använda språken inom AI-forskningen. Fördelen med Lisp är att det tillät forskare att skriva flexibla och kraftfulla program för symbolisk manipulation. Detta möjliggjorde framsteg inom flera olika områden, inklusive naturligt språkbehandling och expertsystem.
Ett annat område kopplat till AI som fick ökat fokus inom forskningen under 1970-talet är så kallade logikbaserade system och expertsystem. Mer konkret är expertsystem datorprogram som använder regler och kunskap från experter inom ett specifikt område för att lösa problem och fatta beslut. Dessa system var viktiga för att kunna utveckla program för områden såsom medicin och juridik för att hjälpa till i beslutsfattande och diagnostisering.
Som vi kan se var det under denna period ett stort fokus på den symboliska AI:n. Detta innebar dock att utvecklingen av algoritmer och tekniker för att efterlikna mänsklig intelligens också gjorde stora framsteg. Många framsteg inom forskningen gjorde också kopplat till områden såsom maskinöversättning och förmågan för program att dra slutsatser.
Även om stora framsteg gjordes inom symbolisk AI stötte man också på begränsningar när det kom till att representera och bearbeta komplex kunskap och osäkerhet. Den goda nyheten är att detta sedermera skulle leda till uppkomsten av nya paradigmer som maskininlärning och neurala nätverk.
Mitten av 1900-talet: Svackan och återupplivningen av AI
AI:s historia har inte alltid varit spikrak. Under mitten av 1900-talet var en period som ibland kallas ”AI-vintern”. Anledningen till detta var att det under denna period blev ett minskat intresse för utveckligen och investeringar i utvecklingen av AI. En viktig anledning till detta var att man gjorde begränsade med framsteg vilket gjorde investerare minde intresserade i att investera i AI-utveckling. Orsakerna var naturligtvis flera och andra anledningar var bland annat för höga förhoppningar på snabba resultat, brist på tydliga användningsfall för AI-teknologin, och tekniska utmaningar. Det är viktigt att poängtera att samhället i stort inte var lika digitaliserat som idag vilket försvårade utveckligen av AI, till exempel genom svårigheter att få tag på stora mängder data och därmed kunna skala upp AI-modellerna.
En annan viktig orsak som bidrog till AI-vintern var att det blev allt tydligare att det fanns stora begränsningar inom den symboliska AI:n. Även om man tidigare gjort vissa viktiga framsteg visade det sig att det var svårt att representera och bearbeta komplex kunskap och att bygga system som kunde lära sig av erfarenhet på ett flexibelt sätt.
Allt detta sammanlagt gjorde att dt fanns en känsla av frustration och misslyckande bland forskare och utvecklare vilket kanske också gjorde att andra teknologiska områden lockade mer under denna tid.
När det kommer till just förväntningarna på AI:n var dessa väldigt stora, framförallt efter de viktiga framsteg som gjorts inom AI-forskningen under 1950- och 1960-talet. Många förväntade sig att AI-system skulle revolutionera alla aspekter av samhället på kort tid och överskattade tiden det skulle ta att nå denna punkt. När resultaten och framstegen inte mötte förväntningarna svalnade intresset helt enkelt.
Trots alla utmaningar och en minskad entusiasm under denna period tog intresset för AI fart igen under 2000-talet. En viktig anledning till detta är att det gjordes många framsteg inom andra områden som var viktiga för utveckligen av AI i stort, och en förutsättning för nya framsteg. Maskininlärning, neurala nätverk, och stora datamängder var alla områden som var helt centrala för att kunna göra nya framsteg inom AI, och tack vare många framsteg inom dessa områden tog utvecklingen av AI fart på nytt. Även ny teknik som gjorde det möjligt att samla in och analysera data möjliggjorde många framsteg inom AI under denna period.
Maskininlärning och neurala nätverk
En otroligt viktig milstolpe inom AI:s historia är uppkomsten av maskininlärning och neurala nätverk. Det var särskilt under 1900-talet och början av 2000-talet som fokus inom AI-forskningen började skifta från det symboliska till det sub-symboliska tillvägagångssättet. Vad innebär detta? Rent praktiskt innebär det att man hade en ökad betoning på maskininlärning och neurala nätverk. Anledning till detta är att dessa tekniker möjliggjorde en mer en mer flexibel och adaptiv approach till att lösa problem. Detta resulterade i viktiga framsteg under denna period inom områden som datavetenskap, robotik och medicin.
Turingpristagare Geoffrey Hinton och upptäckten av bakåtpropagering
Under 1980-talet gjorde en man vid namn Geoffrey Hinton tillsammans med sina kollegor enorma framsteg inom neurala nätverk och maskininlärning - två områden som är direkt kopplat till artificiell intelligens.
Man lyckades popularisera och återupptäcka tekniken för bakåtpropagering, vilket är en teknik för att träna neurala nätverk. På detta sätt kunde Hinton visa att dessa nätverk kunde lära sig att känna igen mönster och utföra komplexa uppgifter med hög precision.
Deep learning (djupinlärning)
Djupinlärning eller på engelska ”deep learning” är en term som används alltmer flitigt i dagens samhälle. Det är också ett område som spelar en helt central roll i dagens AI-teknik.
Djupinlärning innebär att man använder flera lager neurala nätverk för att bearbeta och lära sig av data på ett hierarkiskt sätt. Tack vare denna metod har man gjort enorma framsteg inom AI, framförallt kopplat till områden och program som är beroende av stora mängder data, något som många av dagens AI-program är idag. Detta inkluderar allt från bildigenkänning, taligenkänning, naturlig språkbehandling, och mycket mer. Det är i stor grad tack vare djupinlärning som många av de mest utbredda AI-programmen som används idag existerar.
Förmågan att analysera och tränas på stora mängder data är med det sagt helt central i utveckligen av AI-program. Inom området maskininlärning har stora framsteg gjorts, särskilt under 2000-talet som har möjliggjort mer avancerade AI-program. Det är särskilt tack vare utvecklingen av internet och en allmän digitalisering av information som har lagt grunden och möjliggjort för forskare och andra att utnyttja dessa stora datamängder för att träna och förbättra AI-modellerna.
1970-talet: Expertsystemet MYCIN för medicinsk diagnos
Ett annat viktigt genombrott i den artificiella intelligensens historia tog plats under 1970-talet då forskare vid Stanford University utvecklade ett på många sätt banbrytande system som kallades MYCIN. Detta system var avsett att stödja medicinsk diagnos och behandling av bakteriella infektioner med hjälp av AI.
Till grund för utveckligen av MYCIN var behovet att förbättra diagnos och behandling av bakteriella infektioner. Detta då bakteriella infektioner ofta kräver snabba (och såklart korrekta) beslut som baseras på mycket och komplex medicinsk data. Detta kan naturligtvis vara en stor utmaning för läkare då det kräver en god förståelse för patienten, symptom, behandlingsalternativ, och så vidare. Detta är naturligtvis tidskrävande men inte minst utmanande då det alltid finns risk för att ge fel diagnoser eller fel behandlingar. Eftersom att bakteriella infektioner kräver snabba åtgärder är snabbhet och precision otroligt viktigt.
Genom att använda expertsystemets regelbaserade approach och kunskap från medicinska experter var målet med MYCIN att underlätta beslutsfattande för läkare och därmed förbättra patientvården och patientsäkerheten.
Den så kallade regelbaserade metoden används för att analysera patientdata och baserat på denna data föreslå lämpliga behandlingsalternativ. För detta system hade man specifikt en kunskapsbas med information om bakteriella infektioner och antibiotikabehandlingar som samlats in inom området. När programmet användes för att diagnosticera en patient använde MYCIN regler för att matcha patientens symptom och laboratorieresultat med olika potentiella infektioner och sedan rekommendera lämpliga behandlingar baserat Råå denna analys.
På grund av kraven om patientsäkerhet och precision gjorde man många studier för att utvärdera MYCINs effektivitet. Man fan att systemet var väldigt effektivt för att generera korrekta diagnoser och rekommendationer på behandlingar som var i linje med det riktiga läkare normalt skulle rekommendera. Detta blev därför ett bevis på att AI kan vara en otroligt värdefull teknik i hälsa - och sjukvården. Sedan dess har det hänt väldigt mycket inom området AI och sjukvård och det råder inga tvivel om att AI kommer att spela en helt central roll inom sjukvården för att hjälpa till att ge mer precisa diagnoser och behandlingar för ökad patientsäkerhet och bättre resultat.
1997: IBM:s Deep Blue och schackmatchen mot Garry Kasparov
En viktig händelse i historian av artificiell intelligens var år 1997 då IBM:s dator Deep Blue spelade en historisk schackmatch mot världsmästaren Garry Kasparov. Detta blev en viktig milstolpe i utveckligen av artificiell intelligens och maskininlärning.
Schackmatchen anordnades som ett resultat av flera års forskning och utveckling av IBM. Deep Blue var en superdator som man konstruerade specifikt för att kunna spela schack och som hade avancerade algoritmer för att evaluera ställningar och göra beräkningar av möjliga drag.
Schackmatchen spelades I New York I maj 1997 och delades upp i sex partier. Deep Blue vann en av matcherna vilket markerade den första gången en dator besegrade en regerande världsmästare under klassiska schackregler.
Deep Blues vinst blev en viktig milstolpe i utvecklingen av AI som visade kraften av denna teknik och potentialen av datorvetenskap och artificiell intelligens. För att skapa ett AI-system som kunde vinna över Kasparov använde man sig av maskininlärning, optimering av algoritmer, och en enorm databas med schackpartier för att träna och förbättra systemets prestanda. Vinsten blev ett tecken på framstegen som gjordes inom AI och bidrog till enögda entusiasm inom utvecklingen och forskningen inom detta område. För många blev det ett bevis på att datorer kunde göras smartare än människor och att detta skulle bli ännu tydligare i framtiden. Viktigast av allt är att denna match bevisade att datorer kunde användas för att lösa komplexa problem inom strategiskt tänkande vilket ledde till ökad forskning och utveckling inom området.
2018: Uppkomsten av GPT-serien (Generative Pre-trained Transformer)
På senare år är en av de viktigaste händelser introduceringen av GPT-2 år 2018 av OpenAI.
GPT-2 blev den första modellen i GPT-serien av artificiellt intelligenta språkmodeller. GPT-2 står för Generative Pre-trained Transformer 2 och var ett betydande framsteg inom naturlig språkbehandling och artificiell intelligens när den lanserades.
OpenAIs AI-modell använde en så kallad transformerarkitektur och tränades på en enorm mängd textdata från internet för att kunna generera naturlig och högkvalitativ text.
Transformerarkitekturen introducerades av Vaswani et al. år 2017 och är en neural nätverksstruktur som är väldigt effektiv för att bearbeta sekvensdata såsom naturligt språk. Dena arkitektur består av flera lager ”uppmärksamhetsmekanismer” och ”feedforward-nätverk”. En viktig funktion för GPT-serien är att den har en förmåga att använda ”pre-training” för att få en grundläggande förståelse för naturligt språk. Konkret innebär detta att modellerna först tränas på stora ängder data från internet. På detta sätt kan de få en bred förståelse för språkstruktur och kontext. Efter detta kan de finjusteras för uppgifter med en mycket mindre mängd data.
GPT-modellerna har en generativ förmåga vilket innebär att de kan generera innehåll, i detta fall text. Detta AI-system kan skapa text från grunden om valfritt ämne, svara på frågor, komplettera text, och mycket mer. Detta lade grunden för AI-drivet skrivande vilket är helt centralt för all typ av AI-skrivande. GPT utgör den tekniska grunden för AI-skrivverktyg inklusive Tolio som gör det möjligt att använda kraften av AI inom skrivande.
OpenAI kom sedermera att lansera GPT-3 som är en förbättrad och mer kraftfull modell. GPT-3 har upp till 175 miljarder parametrar och är otroligt kapabel när det kommer till att skriva naturlig och människoliknande text såväl som att lösa olika språkliga uppgifter.
Av dessa anledningar har GPT-3 modellen blivit en av de mest inflytelserika verktygen inom språkbehandling och AI-forskning - framförallt för att den demokratiserade användningen av AI och gjorde det möjligt för alla att för första gången uppleva den enorma kraften av AI.
Historian om AI är både lång och rik och de händelser som diskuterats i denna artikel skrapar bara på ytan av de många genombrott som AI har haft genom åren för att leda upp till var vi är idag. Utvecklingen av AI går just nu i en rasande takt och det råder inga tvivel om att artificiell intelligens kommer att spela en helt central roll i våra dagliga liv och inom de allra flesta områden - vare sig det är inom sjukvården, självkörande bilar, robotar, för skrivande, och mycket mer.