AI leert spelenderwijs

 

Kinderen leren vaak veel meer tijdens het spelen dan wanneer ze aan tafeltjes naar de meester zitten te luisteren. OpenAI heeft dit principe nu naar AI gebracht en leert haar AI spelenderwijs nieuwe vaardigheden aan.

 

OpenAI laat verschillende AI’s wedstrijden met simpele doelen tegen elkaar spelen. Bijvoorbeeld sumoworstelen. Twee AI’s leggen het hierbij tegen elkaar af in de virtuele “RoboSumo” wereld en moeten het spel met trial and error leren. Ze zijn dus niet van tevoren geprogrammeerd om te worstelen en moeten in eerste instantie zelfs leren lopen. Door (miljarden keren!) te blijven proberen leren ze langzaamaan hoe het spel werkt en hoe ze kunnen winnen.

Door de AI’s heel vaak tegen elkaar te laten spelen wil OpenAI een soort wapenwedloop starten waarbij AI’s snel leren door de snel veranderende, steeds complexere tegenstanders waar ze tegenop moeten boksen. Het competitieelement brengt net wat meer onvoorspelbaarheid in het spel. Algoritmen leren hierdoor onder andere tackelen, wegduiken, schijnbewegingen.

Deze methode, waarbij AI’s elkaar aanscherpen door middel van competitie werkt vaak beter dan de AI steeds complexere problemen te geven om op te lossen. Wanneer je complexere problemen laat ontwerpen door mensen, ben je uiteindelijk beperkt door de maximale complexiteit die de ontwerpers aankunnen. Deze methode is pas nog gebruikt bij het Dota 2 project, waar een AI menselijke spelers van deze e-sport versloeg.

OpenAI's AI learns to tackle as emergent behavior

OpenAI heeft ontdekt dat het wel helpt om elke AI tegen meerdere tegenstanders te laten spelen. De AI’s die vaak tegen dezelfde tegenstanders speelden ontwikkelden vaak strategie├źn die heel specifiek op die tegenstander waren gebaseerd. Hierdoor was de AI veel te gespecialiseerd en delfde die vaak het onderspit als er ineens een andere tegenstander verscheen.

De AI’s die binnen het “speelproject” zijn gebruikt zijn ook in staat om hun vaardigheden bij andere spellen in te zetten dan waar ze die geleerd hebben. Voor je het weet zijn ze ook succesvol bij spellen die ze nog nooit gespeeld hebben. Toch duurt het waarschijnlijk nog wel even voordat dit ook robots in de fysieke wereld gaat helpen. Er is namelijk een zogenaamde “reality gap”, resultaten in simulaties vertalen zich niet altijd even goed naar de werkelijkheid. OpenAI heeft wel een team dat aan dit probleem werkt.

Bron: OpenAI

Jamal Zyat
Follow me
Jamal Zyat
Follow me

 

Comments are closed.