Deze post maar even hier, omdat het relevant is aan AI, en dan komt hier wellicht ook weer wat leven in.
Ik erger mij al de hele dag kapot aan deze video. Veritasium stond geloof ik nog wel redelijk bekend als een betrouwbaar platform dat op een interessante manier wetenschappelijke informatie behapbaar maakt voor de massa. Hij wordt volgens mij ook hier nog wel eens gelinkt. Met deze video valt wel te concluderen dat dit helemaal niet meer het geval is.
Ik kom met deze video echt niet veel verder dat Veritasium expres de werkelijkheid verdraait en details onthoudt aan de video om met een meer interessant product te komen waarop men deze clickbait titel los laat, of dat hij gewoon daadwerkelijk geld heeft ontvangen om een nieuw product op te geilen aan Venture Capital firms. Want het bedrijf dat deze analoge chips ontwikkeld is namelijk de enige 'expert' aan het woord.
Mocht iemand deze al gezien hebben, je hoeft je PC nog niet uit het raam te flikkeren: we bouwen computers niet fout. Ook niet voor artificial intelligence.
Paar dingetjes die ik er uit wil pakken:
Zogenaamde accelerators zijn eigenlijk niets nieuws. Integrated Circuitry bestaan al decennia. Ook zijn niet alle digitale computers zogenaamde Von-Neumann Architecturen. Zowel Intel als AMD hebben bijvoorbeeld enigszins recent een grote FPGA speler opgeslokt. Deze FPGAs worden toegepast voor AI accelerators, en hebben geen last van de Von-Neumann bottleneck. De video draagt dit probleem aan als een groot probleem binnen digitale computers, het probleem is al lange tijd bekend en er zijn vele oplossingen voor van verschillende bedrijven.
Het concept van een niet-configureerbare, optimale geintegreerde circuits specifiek gemaakt voor problemen als dit bestaat al: een ASIC. Het enig nieuwe aan dit ontwerp is de matrix multiplicatie in het analoge domein wordt uitgevoerd, dat extra ruis oplevert maar volgens het bedrijf minder stroom verbruikt. Het is niet dat computers verkeerd worden gebouwd. De vergelijking van het stroomverbruik richting een processor of GPU is een oneerlijke vergelijking. Deze kunnen namelijk ten alle tijden opnieuw geconfigureerd worden en hebben gewoon een voordeel dat harde implementaties niet hebben. Terwijl het juist altijd harde implementaties zoals ASICS of ICs zijn die de hoogste throughput(snelheid) voor het laagste stroomgebruik hebben.
Voor het meest energievretende onderdeel van AI, het trainen, verwijst ook het bedrijf naar de GPU. De chip is, net als een ASIC, of bijvoorbeeld Google's TPU eigenlijk alleen echt geschikt voor implementatie. Tot zo ver de 'baanbrekende' analoge computer. En dat is nog helemaal buiten de grove fout aan het einde waar wordt gesuggereerd dat analoog hetzelfde zou zijn als parallellisme. Digitale computers zonder parallellisme bestaan bijna niet meer. Wellicht dat je in goedkope, kleine elektronica nog een chip vind die alles stapje voor stapje doet (wat hier foutief impliciet digitaal wordt genoemd), maar binnen moderne digitale computers bestaat dat eigenlijk niet meer.
Als je een beetje door de reacties scrolt kom je wellicht nog wel wat andere punten tegen, maar je zal door de pagina's van "ja en amen" moeten werken die deze video helemaal de hemel inprijzen die nu vol overtuigd zijn dat we qua computers weer terug moeten naar het oude. Beetje jammer dit.