tsjok Ik vraag me wel af hoe je er voor zou zorgen dat als een ML-systeem zijn eigen doelen laat definiëren, je er nog een 'nuttige' uitkomst uit kan halen. De doelen die voor zo'n netwerk relevant lijken hoeven natuurlijk vanuit menselijk perspectief helemaal niet begrijpelijk of relevant te zijn.
Je hoeft het ook niet direct in "zuivere" zin te zien. De verwijzing van AlphaZero van Molurus is ook weer niet zo vreemd, omdat AlphaZero de restricties die het is opgelegd (het doel is het winnen van het spel binnen de regels) op zo'n manier gebruikt dat het bijna niet meer navolgbaar is. Je zou dat progressief kunnen toepassen op complexere systemen met meer fluïde doelen, en dan zul je ook meer en meer zien dat systemen onnavolgbare tactieken en strategieën zullen implementeren.