Technologie8 mei '17 18:38

'Menselijk oog nog onmisbaar voor analyse livestream'

Auteur: Thijs Baas

Was livestreamen tot voor kort nog voorbehouden aan de mediareuzen, tegenwoordig kan iedereen een real-time filmpje delen met wie-het-maar-mag-zien. Dat levert naast hartstikke leuke beelden ook het nodige leed op. Maar waarom is het nog niet mogelijk om het onwenselijke deel van livestreamfilmpjes automatisch te detecteren?

Foto: ANP
Foto: ANP

Tegenwoordig kunnen machine learning algoritmes behoorlijk goed agressie bij mensen herkennen, zelfs op video. En daar kan een deel van de oplossing zitten, zegt Tijmen Blankevoort, CTO van machine learning-bedrijf Scyferm. 'Dit zijn zeker dingen die zo'n algoritme zelf leert te herkennen aan de hand van videovoorbeelden, als je maar genoeg voorbeelden geeft van bewegende voorwerpen richting een mens.'

Technisch gezien is het met deep learning en algoritmes goed mogelijk om 80 tot 90 procent van de 'rotzooi' uit te filteren, zegt Blankevoort. Maar dan werk je eigenlijk nooit nauwkeurig genoeg; er is heel veel geweld dat nou eenmaal niet eenduidig als zodanig te herkennen is. 'Voor een algoritme is het verschil tussen een verwurging en een intieme knuffel mogelijk vrij klein. Dus om dat te herkennen, dat is toch lastig.'

Foto's analyseren

Facebook betaalt zich nu al blauw aan software om foto's te analyseren, zegt Blankevoort, terwijl de analyse van video nog veel bewerkelijker en dus veel duurder is om op grote schaal door te voeren. 'Die bedrijven maken sowieso al een profiel van jou en kijken in hoeverre je in staat bent om bepaalde dingen te posten. Dat wordt allemaal meegenomen in een soort eerste spamfilter. In een tweede fase worden de overige video's en foto's bekeken door een deep learning algoritme, dat veel beter is in het analyseren van dat soort beeldmateriaal.'

De komende jaren zullen er altijd nog mensen aan te pas moeten komen om het echte analysewerk te doen, voorziet Blankevoort. 'Je maakt een persoonlijke dataset van voorbeelden van geweld, een persoon gaat daar een labeltje aan geven, waarna je al die data aan een algoritme geeft. Dat gaat nooit 99 procent accuraat worden, dus er blijven mensen nodig om datzelfde analysewerk te doen.'

Gerelateerde artikelen