tsjok Waar we momenteel mee bezig zijn is geen general AI, maar een robot die een opdracht kan krijgen en die dan autonoom kan uitvoeren. Als er een moment komt dat de robot echt eigen afwegingen gaat maken over de opdrachten die hij krijgt zijn we nog veel verder van huis. Maar dat is geenszins waar de AI-technici van vandaag aan werken.

Een robot die verder geen intelligente besluiten neemt maar gewoon doet wat hem wordt opgedragen, als een metalen labrador, vind ik zelf niet per se griezeliger dan een atoombom. Dit type robot is niet veel meer dan een tool die door mensen wordt gebruikt.

    Molurus "niet per se griezeliger dan een atoombom" is wel een mooie zin, gewoon zo feitelijk bezien.

      tsjok

      Ik zal erkennen dat atoombommen net zo goed griezelig zijn. Maar de kern is dat het een mens is die op de knop drukt, en niet die robot.

      Een AI die werkelijk in staat is om een intelligente overweging te maken die leidt tot een besluit om 1 of meerdere mensen al dan niet gruwelijk te vermoorden is in mijn beleving veel griezeliger. Dit type AI heeft jouw weliswaar tot de verbeelding sprekende robots helemaal niet nodig om dat te doen. Die zal dit laten doen door mensen die waarschijnlijk geen idee hebben dat ze de opdracht krijgen van en betaald worden door een AI. Omgekeerde wereld.

      Kortom: in dat geval zijn wij zelf de tools. De labradors die geen idee hebben dat ze worden gemanipuleerd.

      Hedendaagse KI zijn toch vooral algoritmes waar je een heleboel inputdata en verwachte outputdata in stopt om hem te trainen zodat hij in vergelijkbare gevallen vergelijkbare output genereert.

      Ik ben daarom niet zo bang voor een KI met een IQ van 500. Het grotere gevaar is volgens mij dat hij onbewuste vooroordelen overneemt die wij zelf in de trainingsdata stoppen.

        Ossu Klopt. Dat wordt 'narrow AI' genoemd (ik weet niet of er een mooie Nederlandse term voor is). Zelfrijdende auto's, Googles zoekresultaten, etc. Daar zijn inderdaad weinig risico's aan verboden behalve hoe wij de systemen gebruiken. Interessanter om over na te denken en wat Molurus bedoelt is een 'general AI', oftewel daadwerkelijke kunstmatige intelligentie. Een GAI-systeem kan, vergelijkbaar met een menselijk brein, rekenkracht toepassen om elk denkbaar probleem op te lossen en heeft daarvoor een intern beeld van de realiteit.

        General AI bestaat nog niet, trouwens. Het is speculatie en wellicht science fiction (we weten ook nog niet of GAI überhaupt kan bestaan).

          Ossu Hedendaagse KI zijn toch vooral algoritmes waar je een heleboel inputdata en verwachte outputdata in stopt om hem te trainen zodat hij in vergelijkbare gevallen vergelijkbare output genereert.

          Ik ben daarom niet zo bang voor een KI met een IQ van 500. Het grotere gevaar is volgens mij dat hij onbewuste vooroordelen overneemt die wij zelf in de trainingsdata stoppen.

          Mwah, als we bijvoorbeeld kijken naar AlphaZero, het experiment van Google Deep Mind om te zien wat dat systeem doet met een schaakspel, dan is er weinig inputdata en weinig output data. En we kunnen gerust concluderen dat er in de output geen vooroordelen ten aanzien van het schaakspel zitten. Heck, waar dat ding mee kwam werd door zowel de betrokken wetenschappers als schaakmeesters gezien als bijna buitenaards en compleet vreemd.

          En nu is dat nog maar een schaakspelletje, het hele idee van een technologische singulariteit vind ik zelf niet heel vreemd. Zo gauw AI systemen zich bezig gaan houden met het ontwerpen van nog krachtiger AI systemen dan wordt het helemaal onduidelijk waar ze mee bezig zijn (dat is het nu al!) en zou de snelheid van vooruitgang op dat vlak best eens exponentieel kunnen zijn.

          Ik denk dat de twee grootste vooroordelen hier zijn: 1) het idee dat wat eruit komt daar door ons in is gestopt, en 2) dat wij er controle over hebben / begrijpen wat er gebeurt. Deze twee punten zijn nu effectief al niet meer waar. Ze zijn al niet meer waar ten aanzien van AlphaZero, wat in feite slechts een klein experimentje was.

            Molurus Klopt grotendeels, maar ook AlphaZero blijft een narrow AI. AlphaZero kan niets anders dan schaken. Je kunt het wel leren om ook te dammen, maar dan kan het alleen maar dammen en schaken. Het is in die zin vergelijkbaar met de 'oude' schaakcomputers, behalve dat (zoals jij ook al zei) we geen kennis meer hebben van wat precies de processen zijn waarmee beslissingen worden genomen. Fundamenteel bezien kunnen we op dit moment AI ook nog niet iets leren dat we zelf niet kunnen, zij het dan veel minder goed.

              tsjok General AI bestaat nog niet, trouwens.

              Wat zou je daaronder verstaan? Wat is de test? Dit is op zichzelf nog geen makkelijke vraag. "Een AI die iets leert zonder dat hier specifiek iets voor is ingeprogrammeerd"? Dat is AlphaZero al.

                tsjok Klopt grotendeels, maar ook AlphaZero blijft een narrow AI. AlphaZero kan niets anders dan schaken.

                Dit is echt onjuist. Dit ding beperkt zich niet eens tot bordspelen. Dezelfde machine wordt gebruikt voor real time strategy games, image en video analysis, enzovoort.

                  Molurus Nee, dat is het niet. Ja, AlphaZero kan ook andere spelletjes spelen (ik zie op wiki Shogi en Go). Dat maakt het punt niet anders. Als je denkt van wel snap je volgens mij niet helemaal wat AlphaZero doet/kan.

                    tsjok

                    Je beseft dat deze video 2 jaar ouder dan AlphaZero is, right?

                      Molurus Dat doet aan jouw vraag (hoe definieer je general AI) totaal niet af, want die vraag is decennia ouder dan zowel AlphaZero als deze video.

                        tsjok

                        Het punt is dat AlphaZero niet specifiek ontworpen is voor deze bordspelen (en Starcraft). AlphaZero heeft deze spellen leren spelen op basis van niets anders dan de regels van het spel.

                        In potentie kan dit systeem vanalles leren, niet alleen de dingen die het al heeft geleerd. Wat de grenzen daarvan zijn is volslagen onduidelijk.

                          tsjok Dat doet aan jouw vraag (hoe definieer je general AI) totaal niet af, want die vraag is decennia ouder dan zowel AlphaZero als deze video.

                          Ah, gaat meer over de definitie. OK. 🙂 Hoewel dat in mijn beleving wel voor een belangrijk deel een filosofische discussie is.

                          Molurus Het klopt natuurlijk dat AlphaZero een brede variëteit aan spellen al beheerst of kan leren, maar dat is niet relevant voor of het een narrow of general AI is. AlphaZero moet eerst getraind worden vóór het een spel beheerst (door als imput de wincondities en een database van spellen te geven). AlphaZero kan daarom per definitie niet alles, want dan zou je het eerst in alles moeten trainen.

                          Een general AI kan nadat het klaar is elk denkbaar probleem oplossen zónder aanvullende training. Zoals Rob Miles in die video zegt: je zou general AI kunnen zien als een narrow AI met als domein "de gehele realiteit".

                            tsjok Het klopt natuurlijk dat AlphaZero een brede variëteit aan spellen al beheerst of kan leren, maar dat is niet relevant voor of het een narrow of general AI is. AlphaZero moet eerst getraind worden vóór het een spel beheerst (door als imput de wincondities en een database van spellen te geven). AlphaZero kan daarom per definitie niet alles, want dan zou je het eerst in alles moeten trainen.

                            In welk opzicht geldt dit niet voor mensen? Iets leren zonder erop te trainen klinkt mij in de oren als een regelrechte contradictie.

                            Molurus Mwah, als we bijvoorbeeld kijken naar AlphaZero, het experiment van Google Deep Mind om te zien wat dat systeem doet met een schaakspel, dan is er weinig inputdata en weinig output data.

                            Blijft een neuraal netwerk dat uit een bepaalde input een bepaalde output genereert. Alleen is die KI anders getraind, doordat hij zijn eigen tussentijdse output ook weer als input kan gebruiken. Maar de uiteindelijke gewenste output is hier waarschijnlijk juist strikter door de mens omlijnd dan bij andere KI-systemen: namelijk schaakbewegingen die zich aan de spelregels houden en die tot winst leiden.

                            tsjok Een general AI kan nadat het klaar is elk denkbaar probleem oplossen zónder aanvullende training.

                            Als dit je definitie van intelligentie is dan bestaat ook menselijke intelligentie niet.

                              Molurus

                              Bij AlphaZero geldt wel dat vanuit een ML-perspectief het een overduidelijke vorm van reinforced learning is: het systeem heeft een duidelijk doel (het winnen van een schaakspel) binnen een duidelijke set regels. Daarbinnen kan AlphaZero met tussendoelen komen die het einddoel faciliteren (en die soms buiten de verbeelding van de mens liggen), maar die zijn altijd gelinkt aan het einddoel. Interessanter is hoe je een systeem als AlphaZero zou kunnen gebruiken voor zuiver unsupervised learning - dergelijke vormen van ML worden nu vooral gebruikt (vanuit menselijk perspectief) om betere inzichten in datastructuren te krijgen, maar zou iets als AlphaZero binnen zo'n systeem ook zijn eigen relevante doelen kunnen definiëren?