Molurus Als jij fundamenteel vindt dat autonome AI-robotsoldaten geenszins griezeliger zijn dan menselijke soldaten heeft het geen zin er over te debatteren, dan verschillen we gewoon van mening.

    Molurus Waar we momenteel mee bezig zijn is geen general AI, maar een robot die een opdracht kan krijgen en die dan autonoom kan uitvoeren (narrow AI). Als er een moment komt dat de robot echt eigen afwegingen gaat maken over de noodzaak van de opdrachten die hij krijgt zijn we nog veel verder van huis. Maar dat is geenszins waar de AI-technici van vandaag aan werken.

      tsjok Als jij fundamenteel vindt dat autonome AI-robotsoldaten geenszins griezeliger zijn dan menselijke soldaten heeft het geen zin er over te debatteren, dan verschillen we gewoon van mening.

      Dit is dan ook meer een perceptie dan een feitelijke claim. Het is geen uitspraak over wat er dan zou gaan gebeuren, want dat weet jij vermoed ik ook niet.

      Overigens betwist ik helemaal niet dat het griezelig is in die zin dat we geen idee hebben wat daarvan het resultaat gaat zijn. 馃槈

      Dit is trouwens ook een kijktip.

      tsjok Waar we momenteel mee bezig zijn is geen general AI, maar een robot die een opdracht kan krijgen en die dan autonoom kan uitvoeren. Als er een moment komt dat de robot echt eigen afwegingen gaat maken over de opdrachten die hij krijgt zijn we nog veel verder van huis. Maar dat is geenszins waar de AI-technici van vandaag aan werken.

      Een robot die verder geen intelligente besluiten neemt maar gewoon doet wat hem wordt opgedragen, als een metalen labrador, vind ik zelf niet per se griezeliger dan een atoombom. Dit type robot is niet veel meer dan een tool die door mensen wordt gebruikt.

        Molurus "niet per se griezeliger dan een atoombom" is wel een mooie zin, gewoon zo feitelijk bezien.

          tsjok

          Ik zal erkennen dat atoombommen net zo goed griezelig zijn. Maar de kern is dat het een mens is die op de knop drukt, en niet die robot.

          Een AI die werkelijk in staat is om een intelligente overweging te maken die leidt tot een besluit om 1 of meerdere mensen al dan niet gruwelijk te vermoorden is in mijn beleving veel griezeliger. Dit type AI heeft jouw weliswaar tot de verbeelding sprekende robots helemaal niet nodig om dat te doen. Die zal dit laten doen door mensen die waarschijnlijk geen idee hebben dat ze de opdracht krijgen van en betaald worden door een AI. Omgekeerde wereld.

          Kortom: in dat geval zijn wij zelf de tools. De labradors die geen idee hebben dat ze worden gemanipuleerd.

          Hedendaagse KI zijn toch vooral algoritmes waar je een heleboel inputdata en verwachte outputdata in stopt om hem te trainen zodat hij in vergelijkbare gevallen vergelijkbare output genereert.

          Ik ben daarom niet zo bang voor een KI met een IQ van 500. Het grotere gevaar is volgens mij dat hij onbewuste vooroordelen overneemt die wij zelf in de trainingsdata stoppen.

            Ossu Klopt. Dat wordt 'narrow AI' genoemd (ik weet niet of er een mooie Nederlandse term voor is). Zelfrijdende auto's, Googles zoekresultaten, etc. Daar zijn inderdaad weinig risico's aan verboden behalve hoe wij de systemen gebruiken. Interessanter om over na te denken en wat Molurus bedoelt is een 'general AI', oftewel daadwerkelijke kunstmatige intelligentie. Een GAI-systeem kan, vergelijkbaar met een menselijk brein, rekenkracht toepassen om elk denkbaar probleem op te lossen en heeft daarvoor een intern beeld van de realiteit.

            General AI bestaat nog niet, trouwens. Het is speculatie en wellicht science fiction (we weten ook nog niet of GAI 眉berhaupt kan bestaan).

              Ossu Hedendaagse KI zijn toch vooral algoritmes waar je een heleboel inputdata en verwachte outputdata in stopt om hem te trainen zodat hij in vergelijkbare gevallen vergelijkbare output genereert.

              Ik ben daarom niet zo bang voor een KI met een IQ van 500. Het grotere gevaar is volgens mij dat hij onbewuste vooroordelen overneemt die wij zelf in de trainingsdata stoppen.

              Mwah, als we bijvoorbeeld kijken naar AlphaZero, het experiment van Google Deep Mind om te zien wat dat systeem doet met een schaakspel, dan is er weinig inputdata en weinig output data. En we kunnen gerust concluderen dat er in de output geen vooroordelen ten aanzien van het schaakspel zitten. Heck, waar dat ding mee kwam werd door zowel de betrokken wetenschappers als schaakmeesters gezien als bijna buitenaards en compleet vreemd.

              En nu is dat nog maar een schaakspelletje, het hele idee van een technologische singulariteit vind ik zelf niet heel vreemd. Zo gauw AI systemen zich bezig gaan houden met het ontwerpen van nog krachtiger AI systemen dan wordt het helemaal onduidelijk waar ze mee bezig zijn (dat is het nu al!) en zou de snelheid van vooruitgang op dat vlak best eens exponentieel kunnen zijn.

              Ik denk dat de twee grootste vooroordelen hier zijn: 1) het idee dat wat eruit komt daar door ons in is gestopt, en 2) dat wij er controle over hebben / begrijpen wat er gebeurt. Deze twee punten zijn nu effectief al niet meer waar. Ze zijn al niet meer waar ten aanzien van AlphaZero, wat in feite slechts een klein experimentje was.

                Molurus Klopt grotendeels, maar ook AlphaZero blijft een narrow AI. AlphaZero kan niets anders dan schaken. Je kunt het wel leren om ook te dammen, maar dan kan het alleen maar dammen en schaken. Het is in die zin vergelijkbaar met de 'oude' schaakcomputers, behalve dat (zoals jij ook al zei) we geen kennis meer hebben van wat precies de processen zijn waarmee beslissingen worden genomen. Fundamenteel bezien kunnen we op dit moment AI ook nog niet iets leren dat we zelf niet kunnen, zij het dan veel minder goed.

                  tsjok General AI bestaat nog niet, trouwens.

                  Wat zou je daaronder verstaan? Wat is de test? Dit is op zichzelf nog geen makkelijke vraag. "Een AI die iets leert zonder dat hier specifiek iets voor is ingeprogrammeerd"? Dat is AlphaZero al.

                    tsjok Klopt grotendeels, maar ook AlphaZero blijft een narrow AI. AlphaZero kan niets anders dan schaken.

                    Dit is echt onjuist. Dit ding beperkt zich niet eens tot bordspelen. Dezelfde machine wordt gebruikt voor real time strategy games, image en video analysis, enzovoort.

                      Molurus Nee, dat is het niet. Ja, AlphaZero kan ook andere spelletjes spelen (ik zie op wiki Shogi en Go). Dat maakt het punt niet anders. Als je denkt van wel snap je volgens mij niet helemaal wat AlphaZero doet/kan.

                        tsjok

                        Je beseft dat deze video 2 jaar ouder dan AlphaZero is, right?

                          Molurus Dat doet aan jouw vraag (hoe definieer je general AI) totaal niet af, want die vraag is decennia ouder dan zowel AlphaZero als deze video.

                            tsjok

                            Het punt is dat AlphaZero niet specifiek ontworpen is voor deze bordspelen (en Starcraft). AlphaZero heeft deze spellen leren spelen op basis van niets anders dan de regels van het spel.

                            In potentie kan dit systeem vanalles leren, niet alleen de dingen die het al heeft geleerd. Wat de grenzen daarvan zijn is volslagen onduidelijk.

                              tsjok Dat doet aan jouw vraag (hoe definieer je general AI) totaal niet af, want die vraag is decennia ouder dan zowel AlphaZero als deze video.

                              Ah, gaat meer over de definitie. OK. 馃檪 Hoewel dat in mijn beleving wel voor een belangrijk deel een filosofische discussie is.

                              Molurus Het klopt natuurlijk dat AlphaZero een brede vari毛teit aan spellen al beheerst of kan leren, maar dat is niet relevant voor of het een narrow of general AI is. AlphaZero moet eerst getraind worden v贸贸r het een spel beheerst (door als imput de wincondities en een database van spellen te geven). AlphaZero kan daarom per definitie niet alles, want dan zou je het eerst in alles moeten trainen.

                              Een general AI kan nadat het klaar is elk denkbaar probleem oplossen z贸nder aanvullende training. Zoals Rob Miles in die video zegt: je zou general AI kunnen zien als een narrow AI met als domein "de gehele realiteit".