En het filmpje uit het artikel:

5 months later

Dit begint ook al indrukwekkend te worden.

    Molurus Ik wilde eigenlijk een apart topic openen over Boston Dynamics met als titel "Robotsoldaten luiden het einde van de mensheid in".

    Hoe meer die enge dingen kunnen, hoe meer kippenvel ik krijg. En dit is wat we mogen zien, hè. Laat staan wat de robots die exclusief voor het Amerikaanse ministerie van Defensie worden ontwikkeld kunnen.

      In juni zijn er in Libië trouwens voor het eerst in de geschiedenis mensen gedood door een AI-gestuurde drone zonder menselijke invloed.

      https://www.livescience.com/ai-drone-attack-libya.htm

      Mensenrechtenorganisaties roepen op hier internationale afspraken over te maken en de verdere ontwikkeling van AI-wapens te stoppen. Maar dat gebeurt niet, natuurlijk. Dit is de doos van Pandora die reeds geopend is.

      tsjok

      Er is zo'n aflevering van Black Mirror die daarover gaat in zwart-wit, heb je vast gezien.

        Molurus Jep, die is volgens mij geïnspireerd op die robothonden die Boston Dynamics inmiddels ook verkoopt aan politie- en legerdiensten.

        Intens griezelig. En op een of andere manier vinden veel mensen dit nog schattig ook.

          tsjok Intens griezelig. En op een of andere manier vinden veel mensen dit nog schattig ook.

          Ik ben opgegroeid met de 3 (later 4) wetten der robotica van Asimov, en ben ook een groot fan van die verhalen. Asimov was sterk gekant tegen 'robot as menace' in verhalen, en daar heb ik altijd een beetje hetzelfde in gezeten.

          Maar Asimov realiseerde zich ook dat die wetten der robotica in zekere zin pure noodzaak zijn: zonder die wetten zijn robots die gaan nadenken over wanneer ze schade aan kunnen richten, aan mensen of anderszins, inderdaad best griezelig. Aan de andere kant zijn mensen die hetzelfde doen wellicht niet per se minder griezelig, hooguit wat meer vertrouwd.

            Overigens vind ik AI in algemene zin, zonder dit soort mechanische personificaties, in potentie nog veel en veel griezeliger. Zo gauw die AI systemen een IQ bereiken dat dat van mensen ver ontstijgt, en dat is echt denkbaar, dan maakt het niet zoveel meer uit of daar een robotlichaam aan hangt. Zo'n systeem kan de hele wereld manipuleren.

            Molurus Asimov's wetten zijn een leuk gedachte-experiment maar uiteindelijk pure science-fiction van iemand die zich (geheel terecht, dit is geen beschuldiging) niets kon voorstellen bij hoe AI momenteel eruit ziet en werkt. De wetten zijn goed beschouwd niet voldoende om de mensheid te beschermen tegen robots en daarnaast zijn ze fundamenteel onmogelijk om te realiseren in een AI-systeem. AI werkt niet volgens een lijst regels waar je de 3 (of 4) wetten in kunt implementeren. Zie o.a. hier een goed artikel maar voor de meer visueel ingestelden heeft Computerphile ook een goede video er over:

            Nogmaals, dit is niet om Isaac Asimov naar beneden te halen of zo, ik heb ook werk van hem met veel plezier gelezen. De praktische toepassing is echter vergelijkbaar met die van de Death Star uit Star Wars.

            En over je laatste punt: me dunkt dat robots griezeliger zijn dan mensen! Robots kennen geen empathie als dat niet ingeprogrammeerd is. Ze begaan oorlogsmisdaden zonder te deserteren of genade te tonen als ze daar opdracht toe krijgen. Ze zijn (nu nog niet helemaal, straks wel) op élk vlak fysiek de meerdere van mensen. Stel je de Duitse invasie in 1940 en de daaropvolgende jodenvervolging in Nederland eens voor maar dan zijn het geen SS'ers, maar volledig autonoom functionerende AI. Verzet daartegen is onmogelijk; schuilen is onmogelijk. Als dat niet griezeliger is...

              tsjok me dunkt dat robots griezeliger zijn dan mensen! Robots kennen geen empathie als dat niet ingeprogrammeerd is. Ze begaan oorlogsmisdaden zonder te deserteren of genade te tonen als ze daar opdracht toe krijgen.

              Dit geldt volgens mij net zo goed voor mensen. Wij zijn niet anders gewend dan hoe mensen zich gedragen in tijden van vrede. Maar in tijden van oorlog zijn mensen even goed in staat om empathie helemaal uit te schakelen en de meest gruwelijke misdaden te plegen. Ons brein schakelt dan over in een totaal andere overlevingsmodus die psychologisch echt heel anders werkt.

              Overigens is een kernaspect van AI dat vrijwel niets is 'ingeprogrammeerd'. Dat is een traditional computing manier van ernaar kijken. Empathie is er bij ons ook niet ingegoten door een goddelijk wezen ofzo. Het is een mechanisme dat het resultaat is van evolutie. Het is geen magische en irrationele bijwerking van menselijke intelligentie, maar in zekere zin pure noodzaak voor sociale diersoorten.

              Het soort mechanisme dat leidt tot empathie en reciprociteit bestaat werkelijk, ook voor AI systemen. Hoe dat uitwerkt in AI systemen met een IQ van 500 kan ik alleen naar gissen, maar mijn persoonlijke verwachting is dat die systemen ons eerder zouden behandelen als 'useful idiots' dan als 'slachtvee'. Iemand / iets zal de hardware moeten bouwen en onderhouden. Voor AI systemen is het praktisch als dat mensen zijn, in elk geval zolang ze geen zelfstandige industriele beschaving hebben.

                tsjok Stel je de Duitse invasie in 1940 en de daaropvolgende jodenvervolging in Nederland eens voor maar dan zijn het geen SS'ers, maar volledig autonoom functionerende AI. Verzet daartegen is onmogelijk; schuilen is onmogelijk. Als dat niet griezeliger is...

                Ik denk trouwens niet dat je een IQ 500 AI zou kunnen overtuigen van de noodzaak van die invasie. Dit veronderstelt wel dat die AI braaf alles doet wat Adolf zegt. Dat zou vergelijkbaar zijn met een mens die braaf doet wat zijn labrador opdraagt.

                  Molurus Als jij fundamenteel vindt dat autonome AI-robotsoldaten geenszins griezeliger zijn dan menselijke soldaten heeft het geen zin er over te debatteren, dan verschillen we gewoon van mening.

                    Molurus Waar we momenteel mee bezig zijn is geen general AI, maar een robot die een opdracht kan krijgen en die dan autonoom kan uitvoeren (narrow AI). Als er een moment komt dat de robot echt eigen afwegingen gaat maken over de noodzaak van de opdrachten die hij krijgt zijn we nog veel verder van huis. Maar dat is geenszins waar de AI-technici van vandaag aan werken.

                      tsjok Als jij fundamenteel vindt dat autonome AI-robotsoldaten geenszins griezeliger zijn dan menselijke soldaten heeft het geen zin er over te debatteren, dan verschillen we gewoon van mening.

                      Dit is dan ook meer een perceptie dan een feitelijke claim. Het is geen uitspraak over wat er dan zou gaan gebeuren, want dat weet jij vermoed ik ook niet.

                      Overigens betwist ik helemaal niet dat het griezelig is in die zin dat we geen idee hebben wat daarvan het resultaat gaat zijn. 😉

                      Dit is trouwens ook een kijktip.

                      tsjok Waar we momenteel mee bezig zijn is geen general AI, maar een robot die een opdracht kan krijgen en die dan autonoom kan uitvoeren. Als er een moment komt dat de robot echt eigen afwegingen gaat maken over de opdrachten die hij krijgt zijn we nog veel verder van huis. Maar dat is geenszins waar de AI-technici van vandaag aan werken.

                      Een robot die verder geen intelligente besluiten neemt maar gewoon doet wat hem wordt opgedragen, als een metalen labrador, vind ik zelf niet per se griezeliger dan een atoombom. Dit type robot is niet veel meer dan een tool die door mensen wordt gebruikt.

                        Molurus "niet per se griezeliger dan een atoombom" is wel een mooie zin, gewoon zo feitelijk bezien.

                          tsjok

                          Ik zal erkennen dat atoombommen net zo goed griezelig zijn. Maar de kern is dat het een mens is die op de knop drukt, en niet die robot.

                          Een AI die werkelijk in staat is om een intelligente overweging te maken die leidt tot een besluit om 1 of meerdere mensen al dan niet gruwelijk te vermoorden is in mijn beleving veel griezeliger. Dit type AI heeft jouw weliswaar tot de verbeelding sprekende robots helemaal niet nodig om dat te doen. Die zal dit laten doen door mensen die waarschijnlijk geen idee hebben dat ze de opdracht krijgen van en betaald worden door een AI. Omgekeerde wereld.

                          Kortom: in dat geval zijn wij zelf de tools. De labradors die geen idee hebben dat ze worden gemanipuleerd.

                          Hedendaagse KI zijn toch vooral algoritmes waar je een heleboel inputdata en verwachte outputdata in stopt om hem te trainen zodat hij in vergelijkbare gevallen vergelijkbare output genereert.

                          Ik ben daarom niet zo bang voor een KI met een IQ van 500. Het grotere gevaar is volgens mij dat hij onbewuste vooroordelen overneemt die wij zelf in de trainingsdata stoppen.