Dit is trouwens ook een kijktip.
Kunstmatige intelligentie
tsjok Waar we momenteel mee bezig zijn is geen general AI, maar een robot die een opdracht kan krijgen en die dan autonoom kan uitvoeren. Als er een moment komt dat de robot echt eigen afwegingen gaat maken over de opdrachten die hij krijgt zijn we nog veel verder van huis. Maar dat is geenszins waar de AI-technici van vandaag aan werken.
Een robot die verder geen intelligente besluiten neemt maar gewoon doet wat hem wordt opgedragen, als een metalen labrador, vind ik zelf niet per se griezeliger dan een atoombom. Dit type robot is niet veel meer dan een tool die door mensen wordt gebruikt.
- Edited
Ik zal erkennen dat atoombommen net zo goed griezelig zijn. Maar de kern is dat het een mens is die op de knop drukt, en niet die robot.
Een AI die werkelijk in staat is om een intelligente overweging te maken die leidt tot een besluit om 1 of meerdere mensen al dan niet gruwelijk te vermoorden is in mijn beleving veel griezeliger. Dit type AI heeft jouw weliswaar tot de verbeelding sprekende robots helemaal niet nodig om dat te doen. Die zal dit laten doen door mensen die waarschijnlijk geen idee hebben dat ze de opdracht krijgen van en betaald worden door een AI. Omgekeerde wereld.
Kortom: in dat geval zijn wij zelf de tools. De labradors die geen idee hebben dat ze worden gemanipuleerd.
Hedendaagse KI zijn toch vooral algoritmes waar je een heleboel inputdata en verwachte outputdata in stopt om hem te trainen zodat hij in vergelijkbare gevallen vergelijkbare output genereert.
Ik ben daarom niet zo bang voor een KI met een IQ van 500. Het grotere gevaar is volgens mij dat hij onbewuste vooroordelen overneemt die wij zelf in de trainingsdata stoppen.
Ossu Klopt. Dat wordt 'narrow AI' genoemd (ik weet niet of er een mooie Nederlandse term voor is). Zelfrijdende auto's, Googles zoekresultaten, etc. Daar zijn inderdaad weinig risico's aan verboden behalve hoe wij de systemen gebruiken. Interessanter om over na te denken en wat Molurus bedoelt is een 'general AI', oftewel daadwerkelijke kunstmatige intelligentie. Een GAI-systeem kan, vergelijkbaar met een menselijk brein, rekenkracht toepassen om elk denkbaar probleem op te lossen en heeft daarvoor een intern beeld van de realiteit.
General AI bestaat nog niet, trouwens. Het is speculatie en wellicht science fiction (we weten ook nog niet of GAI überhaupt kan bestaan).
- Edited
Ossu Hedendaagse KI zijn toch vooral algoritmes waar je een heleboel inputdata en verwachte outputdata in stopt om hem te trainen zodat hij in vergelijkbare gevallen vergelijkbare output genereert.
Ik ben daarom niet zo bang voor een KI met een IQ van 500. Het grotere gevaar is volgens mij dat hij onbewuste vooroordelen overneemt die wij zelf in de trainingsdata stoppen.
Mwah, als we bijvoorbeeld kijken naar AlphaZero, het experiment van Google Deep Mind om te zien wat dat systeem doet met een schaakspel, dan is er weinig inputdata en weinig output data. En we kunnen gerust concluderen dat er in de output geen vooroordelen ten aanzien van het schaakspel zitten. Heck, waar dat ding mee kwam werd door zowel de betrokken wetenschappers als schaakmeesters gezien als bijna buitenaards en compleet vreemd.
En nu is dat nog maar een schaakspelletje, het hele idee van een technologische singulariteit vind ik zelf niet heel vreemd. Zo gauw AI systemen zich bezig gaan houden met het ontwerpen van nog krachtiger AI systemen dan wordt het helemaal onduidelijk waar ze mee bezig zijn (dat is het nu al!) en zou de snelheid van vooruitgang op dat vlak best eens exponentieel kunnen zijn.
Ik denk dat de twee grootste vooroordelen hier zijn: 1) het idee dat wat eruit komt daar door ons in is gestopt, en 2) dat wij er controle over hebben / begrijpen wat er gebeurt. Deze twee punten zijn nu effectief al niet meer waar. Ze zijn al niet meer waar ten aanzien van AlphaZero, wat in feite slechts een klein experimentje was.
Molurus Klopt grotendeels, maar ook AlphaZero blijft een narrow AI. AlphaZero kan niets anders dan schaken. Je kunt het wel leren om ook te dammen, maar dan kan het alleen maar dammen en schaken. Het is in die zin vergelijkbaar met de 'oude' schaakcomputers, behalve dat (zoals jij ook al zei) we geen kennis meer hebben van wat precies de processen zijn waarmee beslissingen worden genomen. Fundamenteel bezien kunnen we op dit moment AI ook nog niet iets leren dat we zelf niet kunnen, zij het dan veel minder goed.
- Edited
Het punt is dat AlphaZero niet specifiek ontworpen is voor deze bordspelen (en Starcraft). AlphaZero heeft deze spellen leren spelen op basis van niets anders dan de regels van het spel.
In potentie kan dit systeem vanalles leren, niet alleen de dingen die het al heeft geleerd. Wat de grenzen daarvan zijn is volslagen onduidelijk.
Molurus Het klopt natuurlijk dat AlphaZero een brede variëteit aan spellen al beheerst of kan leren, maar dat is niet relevant voor of het een narrow of general AI is. AlphaZero moet eerst getraind worden vóór het een spel beheerst (door als imput de wincondities en een database van spellen te geven). AlphaZero kan daarom per definitie niet alles, want dan zou je het eerst in alles moeten trainen.
Een general AI kan nadat het klaar is elk denkbaar probleem oplossen zónder aanvullende training. Zoals Rob Miles in die video zegt: je zou general AI kunnen zien als een narrow AI met als domein "de gehele realiteit".
tsjok Het klopt natuurlijk dat AlphaZero een brede variëteit aan spellen al beheerst of kan leren, maar dat is niet relevant voor of het een narrow of general AI is. AlphaZero moet eerst getraind worden vóór het een spel beheerst (door als imput de wincondities en een database van spellen te geven). AlphaZero kan daarom per definitie niet alles, want dan zou je het eerst in alles moeten trainen.
In welk opzicht geldt dit niet voor mensen? Iets leren zonder erop te trainen klinkt mij in de oren als een regelrechte contradictie.
Molurus Mwah, als we bijvoorbeeld kijken naar AlphaZero, het experiment van Google Deep Mind om te zien wat dat systeem doet met een schaakspel, dan is er weinig inputdata en weinig output data.
Blijft een neuraal netwerk dat uit een bepaalde input een bepaalde output genereert. Alleen is die KI anders getraind, doordat hij zijn eigen tussentijdse output ook weer als input kan gebruiken. Maar de uiteindelijke gewenste output is hier waarschijnlijk juist strikter door de mens omlijnd dan bij andere KI-systemen: namelijk schaakbewegingen die zich aan de spelregels houden en die tot winst leiden.
Bij AlphaZero geldt wel dat vanuit een ML-perspectief het een overduidelijke vorm van reinforced learning is: het systeem heeft een duidelijk doel (het winnen van een schaakspel) binnen een duidelijke set regels. Daarbinnen kan AlphaZero met tussendoelen komen die het einddoel faciliteren (en die soms buiten de verbeelding van de mens liggen), maar die zijn altijd gelinkt aan het einddoel. Interessanter is hoe je een systeem als AlphaZero zou kunnen gebruiken voor zuiver unsupervised learning - dergelijke vormen van ML worden nu vooral gebruikt (vanuit menselijk perspectief) om betere inzichten in datastructuren te krijgen, maar zou iets als AlphaZero binnen zo'n systeem ook zijn eigen relevante doelen kunnen definiëren?
Molurus Met 'elk denkbaar probleem oplossen' bedoel ik in deze zin niet letterlijk dat elk probleem succesvol opgelost kan worden (er zijn ten slotte ook problemen zonder oplossing, om maar iets te noemen), maar dat het intelligentie in kan zetten om dichter bij de oplossing te komen. Als ik jou nu vraag om te golfen dan kun je dat gaan doen, zelfs al heb je het nog nooit gedaan. AlphaZero moet eerst getraind worden om te kunnen golfen voor het überhaupt een concept heeft van wat dat in zou houden. Een General AI zou net als een mens direct een poging kunnen wagen (en wellicht steeds beter worden met oefening).
Reya Ik vraag me wel af hoe je er voor zou zorgen dat als een ML-systeem zijn eigen doelen laat definiëren, je er nog een 'nuttige' uitkomst uit kan halen. De doelen die voor zo'n netwerk relevant lijken hoeven natuurlijk vanuit menselijk perspectief helemaal niet begrijpelijk of relevant te zijn.
ML is echt zo'n onderwerp waarvan ik wou dat ik er meer van begreep.
tsjok Ik vraag me wel af hoe je er voor zou zorgen dat als een ML-systeem zijn eigen doelen laat definiëren, je er nog een 'nuttige' uitkomst uit kan halen. De doelen die voor zo'n netwerk relevant lijken hoeven natuurlijk vanuit menselijk perspectief helemaal niet begrijpelijk of relevant te zijn.
Je hoeft het ook niet direct in "zuivere" zin te zien. De verwijzing van AlphaZero van Molurus is ook weer niet zo vreemd, omdat AlphaZero de restricties die het is opgelegd (het doel is het winnen van het spel binnen de regels) op zo'n manier gebruikt dat het bijna niet meer navolgbaar is. Je zou dat progressief kunnen toepassen op complexere systemen met meer fluïde doelen, en dan zul je ook meer en meer zien dat systemen onnavolgbare tactieken en strategieën zullen implementeren.
- Edited
Reya Interessanter is hoe je een systeem als AlphaZero zou kunnen gebruiken voor zuiver unsupervised learning - dergelijke vormen van ML worden nu vooral gebruikt (vanuit menselijk perspectief) om betere inzichten in datastructuren te krijgen, maar zou iets als AlphaZero binnen zo'n systeem ook zijn eigen relevante doelen kunnen definiëren?
Ik zou eigenlijk niet weten waarom niet, of waarom dit iets fundamenteel anders zou zijn dan het bepalen van deel-doelen in een schaakspel.
De vraag of hij zelf ook, in de kosmos, doelen kan bepalen voelt een beetje aan als de vrije wil discussie. Of de mens werkelijk andere doelen kan kiezen die niet voortvloeien uit onze evolutionaire achtergrond en ons doel om succesvol te bestaan is ook maar de vraag.
De wereld van de mens is vooral groter dan die van een AI systeem die Starcraft speelt. Maar ik zie geen essentiele verschillen in de manier waarop daarmee wordt omgegaan.
tsjok Als ik jou nu vraag om te golfen dan kun je dat gaan doen, zelfs al heb je het nog nooit gedaan. AlphaZero moet eerst getraind worden om te kunnen golfen voor het überhaupt een concept heeft van wat dat in zou houden.
Dit klinkt, maar corrigeer me vooral als je iets anders bedoelt, alsof je denkt dat een mens niet hoeft te trainen om een schaakgrootmeester te worden terwijl AlphaZero dat wel moet. Dit lijkt me eerlijk gezegd absurd. Wij moeten dat ook leren. Als je een kind de golfbaan opstuurt om een potje golf te spelen mag je blij zijn als hij de bal raakt.
Dus waarin je hier nu een fundamenteel ziet is mij eerlijk gezegd een volslagen raadsel. Elk intelligent systeem moet dingen leren, ook mensen.
tsjok Als ik het goed begrijp zijn de overwegingen/tussenstappen van AlphaZero fundamenteel onkenbaar, toch? Hoe weten we dan dat de tactieken onnavolgbaar zijn?
Kijken naar neurale netwerken in actie is een beetje alsof je probeert door met een microscoop te kijken naar menselijke hersenen te ontdekken wat jij allemaal denkt tijdens het lezen van deze post. Het is 1 grote brei.
Hoe we weten dat de tactieken in, bijvoorbeeld, het schaken onnavolgbaar zijn vereist vrees ik wel enige minimale kennis van het schaakspel. Maar op goed geluk en in de hoop dat je er iets van meekrijgt, hier Daniel King over een inmiddels redelijk oude partij van AlphaZero en zijn perceptie van wat daar gebeurt:
Reya Onnavolgbaar meer in overdrachtelijke zin. Als je Carlsen of Nakamura live een AlphaZero partij laat analyseren, zullen ze met enige regelmaat versteld staan van de zetten van AZ, omdat die geënt zijn op een positioneel begrip dat het menselijk inzicht te boven gaat.
Het is natuurlijk al vrij lang zo dat schaakcomputers veel sterker zijn dan mensen. Dat was met Stockfish ook al lang zo. Toch is dat altijd geweest op het niveau van 'kunst! Die computers kunnen foutloos 20 zetten vooruit rekenen, en daarmee wordt elke fout gewoon genadeloos afgestraft'. Bij AlphaZero lijkt het er echter, voor het eerst, sterk op dat hij niet alleen goed kan rekenen maar ook conceptueel het spel fundamenteel anders benadert.
Maar zoals gezegd: er is wel begrip van schaken an sich voor nodig om dat engiszins op waarde te schatten.
Molurus Uiteraard bedoel ik iets anders - anders zou mijn stelling kolder zijn.
Als je de video kijkt waar je net na een blik op de publicatiedatum aan voobij ging wordt het prima uitgelegd, maar goed. Om even van een site te plukken:
Narrow AI: “a specific type of artificial intelligence in which a technology outperforms humans in some very narrowly defined task. Unlike general artificial intelligence, narrow artificial intelligence focuses on a single subset of cognitive abilities and advances in that spectrum.”
Het onderscheid met General AI zit hem in dat Narrow AI één vooraf gedefinieerde taak beheerst. AlphaZero kan niet iets buiten de taken die gedefinieerd zijn; of dat nou Go winnen is, of Schaken winnen. Hetzelfde geldt voor de AI die Google's zelfrijdende auto bestuurt. Het onderscheid met General AI is dat bij een General AI de taken niet vooraf hoeven worden gedefinieerd; een General AI kan "alles". Dat is vergelijkbaar met een menselijk brein, want mensen hoeven óók niet letterlijk elk doel apart te leren om iets te kunnen. Natuurlijk is de oplossings- en rekencapaciteit van mensen vrij beperkt, maar dat is fundamenteel niet het punt.
Molurus Het is natuurlijk al vrij lang zo dat schaakcomputers veel sterker zijn dan mensen. Dat was met Stockfish ook al lang zo. Toch is dat altijd geweest op het niveau van 'kunst! Die computers kunnen foutloos 20 zetten vooruit rekenen, en daarmee wordt elke fout gewoon genadeloos afgestraft'. Bij AlphaZero lijkt het er echter, voor het eerst, sterk op dat hij niet alleen goed kan rekenen maar ook conceptueel het spel fundamenteel anders benadert.
Jep, daar wilde ik net al een post over typen eigenlijk. Dat is ook wat AlphaZero (en anderen) zo bijzonder maakt. Heel lang was computerschaken gewoon ontzettend snel een extreem groot aantal zetten berekenen en daaruit de optimale keuze kiezen (DeepBlue berekende bijvoorbeeld 200 miljoen zetten per seconde). AlphaZero lijkt daar totaal niet op afgezien van de uitkomst.
Overigens kan ik schaken, Molurus.
tsjok Het onderscheid met General AI zit hem in dat Narrow AI één vooraf gedefinieerde taak beheerst. AlphaZero kan niet iets buiten de taken die gedefinieerd zijn; of dat nou Go winnen is, of Schaken winnen.
Ok, dan is het vooral deze aanname die onjuist is volgens mij. AlphaZero is niet 'narrow' in deze zin.
tsjok Iets minder denigrerend zou prettig zijn.
Vandaar 'niet vervelend bedoeld' (nee echt niet).
Er zit gewoon een enorm gat tussen de regels kennen, een aardig potje kunnen spelen, een grondig begrip hebben van het schaakspel, en meesterniveau.
Ik schat dat je al gauw rond rating 1900-2000 moet zitten om enigszins te zien wat inhoudelijk het verschil is tussen Stockfish en AlphaZero. En volgens mij kom je daar nog niet aan. (Dat zou je wellicht best kunnen als je jezelf dat als doel stelt.)
- Edited
Ja je kunt hier helemaal doordraven dat een schaak-computer volledige AI is, en zeker niet 'narrow'. Per definitie is een narrow AI iets dat een bepaald probleem oplost, een schaak computer dus.
Men wil in de AI sector nog wel aardig doordraven dat hun stuk code een mens moet voorstellen, maar dat valt nog wel mee hoor.
Maar goed, het daadwerkelijk programmeren van dit soort meuk zal wel niet voldoende ervaring zijn. Je moet een schaakmeester zijn.
- Edited
Als die juist was zou het niks anders kunnen leren dan een specifieke set van problemen. Intussen is het Deep Mind team aan de lopende band aan het experimenteren met diverse problemen waar dit systeem niet voor is gebouwd, met uiteenlopend succes.
En het lijkt erop dat je tot vandaag niet wist dat dat ding uberhaupt iets anders kan dan schaken.