Kunstmatige intelligentie
- Edited
En het filmpje uit het artikel:
Dit begint ook al indrukwekkend te worden.
Molurus Ik wilde eigenlijk een apart topic openen over Boston Dynamics met als titel "Robotsoldaten luiden het einde van de mensheid in".
Hoe meer die enge dingen kunnen, hoe meer kippenvel ik krijg. En dit is wat we mogen zien, hè. Laat staan wat de robots die exclusief voor het Amerikaanse ministerie van Defensie worden ontwikkeld kunnen.
Hard in de uncanny-valley.
In juni zijn er in Libië trouwens voor het eerst in de geschiedenis mensen gedood door een AI-gestuurde drone zonder menselijke invloed.
https://www.livescience.com/ai-drone-attack-libya.htm
Mensenrechtenorganisaties roepen op hier internationale afspraken over te maken en de verdere ontwikkeling van AI-wapens te stoppen. Maar dat gebeurt niet, natuurlijk. Dit is de doos van Pandora die reeds geopend is.
- Edited
tsjok Intens griezelig. En op een of andere manier vinden veel mensen dit nog schattig ook.
Ik ben opgegroeid met de 3 (later 4) wetten der robotica van Asimov, en ben ook een groot fan van die verhalen. Asimov was sterk gekant tegen 'robot as menace' in verhalen, en daar heb ik altijd een beetje hetzelfde in gezeten.
Maar Asimov realiseerde zich ook dat die wetten der robotica in zekere zin pure noodzaak zijn: zonder die wetten zijn robots die gaan nadenken over wanneer ze schade aan kunnen richten, aan mensen of anderszins, inderdaad best griezelig. Aan de andere kant zijn mensen die hetzelfde doen wellicht niet per se minder griezelig, hooguit wat meer vertrouwd.
Overigens vind ik AI in algemene zin, zonder dit soort mechanische personificaties, in potentie nog veel en veel griezeliger. Zo gauw die AI systemen een IQ bereiken dat dat van mensen ver ontstijgt, en dat is echt denkbaar, dan maakt het niet zoveel meer uit of daar een robotlichaam aan hangt. Zo'n systeem kan de hele wereld manipuleren.
Molurus Asimov's wetten zijn een leuk gedachte-experiment maar uiteindelijk pure science-fiction van iemand die zich (geheel terecht, dit is geen beschuldiging) niets kon voorstellen bij hoe AI momenteel eruit ziet en werkt. De wetten zijn goed beschouwd niet voldoende om de mensheid te beschermen tegen robots en daarnaast zijn ze fundamenteel onmogelijk om te realiseren in een AI-systeem. AI werkt niet volgens een lijst regels waar je de 3 (of 4) wetten in kunt implementeren. Zie o.a. hier een goed artikel maar voor de meer visueel ingestelden heeft Computerphile ook een goede video er over:
Nogmaals, dit is niet om Isaac Asimov naar beneden te halen of zo, ik heb ook werk van hem met veel plezier gelezen. De praktische toepassing is echter vergelijkbaar met die van de Death Star uit Star Wars.
En over je laatste punt: me dunkt dat robots griezeliger zijn dan mensen! Robots kennen geen empathie als dat niet ingeprogrammeerd is. Ze begaan oorlogsmisdaden zonder te deserteren of genade te tonen als ze daar opdracht toe krijgen. Ze zijn (nu nog niet helemaal, straks wel) op élk vlak fysiek de meerdere van mensen. Stel je de Duitse invasie in 1940 en de daaropvolgende jodenvervolging in Nederland eens voor maar dan zijn het geen SS'ers, maar volledig autonoom functionerende AI. Verzet daartegen is onmogelijk; schuilen is onmogelijk. Als dat niet griezeliger is...
tsjok me dunkt dat robots griezeliger zijn dan mensen! Robots kennen geen empathie als dat niet ingeprogrammeerd is. Ze begaan oorlogsmisdaden zonder te deserteren of genade te tonen als ze daar opdracht toe krijgen.
Dit geldt volgens mij net zo goed voor mensen. Wij zijn niet anders gewend dan hoe mensen zich gedragen in tijden van vrede. Maar in tijden van oorlog zijn mensen even goed in staat om empathie helemaal uit te schakelen en de meest gruwelijke misdaden te plegen. Ons brein schakelt dan over in een totaal andere overlevingsmodus die psychologisch echt heel anders werkt.
Overigens is een kernaspect van AI dat vrijwel niets is 'ingeprogrammeerd'. Dat is een traditional computing manier van ernaar kijken. Empathie is er bij ons ook niet ingegoten door een goddelijk wezen ofzo. Het is een mechanisme dat het resultaat is van evolutie. Het is geen magische en irrationele bijwerking van menselijke intelligentie, maar in zekere zin pure noodzaak voor sociale diersoorten.
Het soort mechanisme dat leidt tot empathie en reciprociteit bestaat werkelijk, ook voor AI systemen. Hoe dat uitwerkt in AI systemen met een IQ van 500 kan ik alleen naar gissen, maar mijn persoonlijke verwachting is dat die systemen ons eerder zouden behandelen als 'useful idiots' dan als 'slachtvee'. Iemand / iets zal de hardware moeten bouwen en onderhouden. Voor AI systemen is het praktisch als dat mensen zijn, in elk geval zolang ze geen zelfstandige industriele beschaving hebben.
tsjok Stel je de Duitse invasie in 1940 en de daaropvolgende jodenvervolging in Nederland eens voor maar dan zijn het geen SS'ers, maar volledig autonoom functionerende AI. Verzet daartegen is onmogelijk; schuilen is onmogelijk. Als dat niet griezeliger is...
Ik denk trouwens niet dat je een IQ 500 AI zou kunnen overtuigen van de noodzaak van die invasie. Dit veronderstelt wel dat die AI braaf alles doet wat Adolf zegt. Dat zou vergelijkbaar zijn met een mens die braaf doet wat zijn labrador opdraagt.
- Edited
Molurus Waar we momenteel mee bezig zijn is geen general AI, maar een robot die een opdracht kan krijgen en die dan autonoom kan uitvoeren (narrow AI). Als er een moment komt dat de robot echt eigen afwegingen gaat maken over de noodzaak van de opdrachten die hij krijgt zijn we nog veel verder van huis. Maar dat is geenszins waar de AI-technici van vandaag aan werken.
- Edited
tsjok Als jij fundamenteel vindt dat autonome AI-robotsoldaten geenszins griezeliger zijn dan menselijke soldaten heeft het geen zin er over te debatteren, dan verschillen we gewoon van mening.
Dit is dan ook meer een perceptie dan een feitelijke claim. Het is geen uitspraak over wat er dan zou gaan gebeuren, want dat weet jij vermoed ik ook niet.
Overigens betwist ik helemaal niet dat het griezelig is in die zin dat we geen idee hebben wat daarvan het resultaat gaat zijn.
Dit is trouwens ook een kijktip.
tsjok Waar we momenteel mee bezig zijn is geen general AI, maar een robot die een opdracht kan krijgen en die dan autonoom kan uitvoeren. Als er een moment komt dat de robot echt eigen afwegingen gaat maken over de opdrachten die hij krijgt zijn we nog veel verder van huis. Maar dat is geenszins waar de AI-technici van vandaag aan werken.
Een robot die verder geen intelligente besluiten neemt maar gewoon doet wat hem wordt opgedragen, als een metalen labrador, vind ik zelf niet per se griezeliger dan een atoombom. Dit type robot is niet veel meer dan een tool die door mensen wordt gebruikt.
- Edited
Ik zal erkennen dat atoombommen net zo goed griezelig zijn. Maar de kern is dat het een mens is die op de knop drukt, en niet die robot.
Een AI die werkelijk in staat is om een intelligente overweging te maken die leidt tot een besluit om 1 of meerdere mensen al dan niet gruwelijk te vermoorden is in mijn beleving veel griezeliger. Dit type AI heeft jouw weliswaar tot de verbeelding sprekende robots helemaal niet nodig om dat te doen. Die zal dit laten doen door mensen die waarschijnlijk geen idee hebben dat ze de opdracht krijgen van en betaald worden door een AI. Omgekeerde wereld.
Kortom: in dat geval zijn wij zelf de tools. De labradors die geen idee hebben dat ze worden gemanipuleerd.
Hedendaagse KI zijn toch vooral algoritmes waar je een heleboel inputdata en verwachte outputdata in stopt om hem te trainen zodat hij in vergelijkbare gevallen vergelijkbare output genereert.
Ik ben daarom niet zo bang voor een KI met een IQ van 500. Het grotere gevaar is volgens mij dat hij onbewuste vooroordelen overneemt die wij zelf in de trainingsdata stoppen.
Ossu Klopt. Dat wordt 'narrow AI' genoemd (ik weet niet of er een mooie Nederlandse term voor is). Zelfrijdende auto's, Googles zoekresultaten, etc. Daar zijn inderdaad weinig risico's aan verboden behalve hoe wij de systemen gebruiken. Interessanter om over na te denken en wat Molurus bedoelt is een 'general AI', oftewel daadwerkelijke kunstmatige intelligentie. Een GAI-systeem kan, vergelijkbaar met een menselijk brein, rekenkracht toepassen om elk denkbaar probleem op te lossen en heeft daarvoor een intern beeld van de realiteit.
General AI bestaat nog niet, trouwens. Het is speculatie en wellicht science fiction (we weten ook nog niet of GAI überhaupt kan bestaan).
- Edited
Ossu Hedendaagse KI zijn toch vooral algoritmes waar je een heleboel inputdata en verwachte outputdata in stopt om hem te trainen zodat hij in vergelijkbare gevallen vergelijkbare output genereert.
Ik ben daarom niet zo bang voor een KI met een IQ van 500. Het grotere gevaar is volgens mij dat hij onbewuste vooroordelen overneemt die wij zelf in de trainingsdata stoppen.
Mwah, als we bijvoorbeeld kijken naar AlphaZero, het experiment van Google Deep Mind om te zien wat dat systeem doet met een schaakspel, dan is er weinig inputdata en weinig output data. En we kunnen gerust concluderen dat er in de output geen vooroordelen ten aanzien van het schaakspel zitten. Heck, waar dat ding mee kwam werd door zowel de betrokken wetenschappers als schaakmeesters gezien als bijna buitenaards en compleet vreemd.
En nu is dat nog maar een schaakspelletje, het hele idee van een technologische singulariteit vind ik zelf niet heel vreemd. Zo gauw AI systemen zich bezig gaan houden met het ontwerpen van nog krachtiger AI systemen dan wordt het helemaal onduidelijk waar ze mee bezig zijn (dat is het nu al!) en zou de snelheid van vooruitgang op dat vlak best eens exponentieel kunnen zijn.
Ik denk dat de twee grootste vooroordelen hier zijn: 1) het idee dat wat eruit komt daar door ons in is gestopt, en 2) dat wij er controle over hebben / begrijpen wat er gebeurt. Deze twee punten zijn nu effectief al niet meer waar. Ze zijn al niet meer waar ten aanzien van AlphaZero, wat in feite slechts een klein experimentje was.
Molurus Klopt grotendeels, maar ook AlphaZero blijft een narrow AI. AlphaZero kan niets anders dan schaken. Je kunt het wel leren om ook te dammen, maar dan kan het alleen maar dammen en schaken. Het is in die zin vergelijkbaar met de 'oude' schaakcomputers, behalve dat (zoals jij ook al zei) we geen kennis meer hebben van wat precies de processen zijn waarmee beslissingen worden genomen. Fundamenteel bezien kunnen we op dit moment AI ook nog niet iets leren dat we zelf niet kunnen, zij het dan veel minder goed.
- Edited
Het punt is dat AlphaZero niet specifiek ontworpen is voor deze bordspelen (en Starcraft). AlphaZero heeft deze spellen leren spelen op basis van niets anders dan de regels van het spel.
In potentie kan dit systeem vanalles leren, niet alleen de dingen die het al heeft geleerd. Wat de grenzen daarvan zijn is volslagen onduidelijk.
Molurus Het klopt natuurlijk dat AlphaZero een brede variëteit aan spellen al beheerst of kan leren, maar dat is niet relevant voor of het een narrow of general AI is. AlphaZero moet eerst getraind worden vóór het een spel beheerst (door als imput de wincondities en een database van spellen te geven). AlphaZero kan daarom per definitie niet alles, want dan zou je het eerst in alles moeten trainen.
Een general AI kan nadat het klaar is elk denkbaar probleem oplossen zónder aanvullende training. Zoals Rob Miles in die video zegt: je zou general AI kunnen zien als een narrow AI met als domein "de gehele realiteit".
tsjok Het klopt natuurlijk dat AlphaZero een brede variëteit aan spellen al beheerst of kan leren, maar dat is niet relevant voor of het een narrow of general AI is. AlphaZero moet eerst getraind worden vóór het een spel beheerst (door als imput de wincondities en een database van spellen te geven). AlphaZero kan daarom per definitie niet alles, want dan zou je het eerst in alles moeten trainen.
In welk opzicht geldt dit niet voor mensen? Iets leren zonder erop te trainen klinkt mij in de oren als een regelrechte contradictie.
Molurus Mwah, als we bijvoorbeeld kijken naar AlphaZero, het experiment van Google Deep Mind om te zien wat dat systeem doet met een schaakspel, dan is er weinig inputdata en weinig output data.
Blijft een neuraal netwerk dat uit een bepaalde input een bepaalde output genereert. Alleen is die KI anders getraind, doordat hij zijn eigen tussentijdse output ook weer als input kan gebruiken. Maar de uiteindelijke gewenste output is hier waarschijnlijk juist strikter door de mens omlijnd dan bij andere KI-systemen: namelijk schaakbewegingen die zich aan de spelregels houden en die tot winst leiden.