Facebook heeft gezichtsherkenning ontwikkeld die bijna even goed is als mensen
Facebook heeft gezichtsherkenning ontwikkeld die bijna even goed is als mensen
Vorig jaar begon Facebook met een project om meer betekenis uit hun data te halen. Met een techniek die "deep learning" wordt genoemd, wil het team computers trainen om beeld en tekst beter te leren te begrijpen. En dan niet op de traditionele manier, waarbij een programmeur aan de computer moet vertellen waar die op moet letten, maar door de computer dat zelf uit te laten vinden. Een voorbeeld hiervan is het kattenproject dat Google vorig jaar deed. Na het analyseren van 10 miljoen YouTube-video's had de software zichzelf geleerd om katten te herkennen. Klinkt misschien niet heel bijzonder, maar wel als je bedenkt dat de programmeurs nooit iets over katten ingevoerd hadden. De computer had in feite zelf het concept "kat" uitgevonden.
Bij Facebook zijn ze ook hard bezig met het ontwikkelen van deep learning-projecten. En het nieuwste resultaat, dat deze week gepubliceerd werd, is daarvan een redelijk bijzonder voorbeeld.
De meeste mensen zijn evolutionair uitgerust om andere mensen te herkennen. Als iemand gepresenteerd wordt met twee plaatjes van hetzelfde persoon, dan kunnen we gemiddeld 97.53 procent van de keren de beide gezichten herkennen als dezelfde persoon. Ook als de gezichten niet direct naar de camera kijken.
(a) is het origineel, (g) het gecorrigeerde gezicht
Voor computers is dit moeilijk, en hoewel gezichtsherkenning steeds beter wordt, kan een afgewend gezicht bestaande software al snel in de war brengen. Dat is niet het geval bij Facebook's DeepFace.
De software doet aan zogenaamde facial verification, en niet facial recognition. Het verschil zit 'm erin dat DeepFace vooral heel erg goed is in het herkennen van dezelfde persoon in verschillende foto's, en niet in het plakken van namen bij gezichten. Met heel erg goed bedoel ik ook heel erg goed: het algoritme kan 97.25 procent van de keren dezelfde persoon herkennen. Bijna even goed als een mens.
DeepFace werkt door een gezicht dat niet direct de camera inkijkt te corrigeren aan de hand van een standaard 3D-model van een gezicht. Het algoritme maakt een numeriek model van het gecorrigeerde gezicht en vergelijkt dat met een numeriek model van een andere foto. Als die twee overeenkomen, dan beslist de software dat het dezelfde persoon is. En de software heeft extreem vaak gelijk.
Facebook heeft de software nog niet in gebruik genomen, omdat de onderzoekers eerst hun resultaten gaan publiceren in een wetenschappelijk journal om feedback te krijgen van andere programmeurs. Maar het moment dat ze het algoritme in gaan zetten komt er ongetwijfeld aan. En dat betekent dat je waarschijnlijk een hoop foto's voorbij gaat zien komen waarin je liever niet herkend had willen worden.
--
Populair
-
Dood door onwetendheid: waarom zeggen bijsluiters niks over drugs en medicijnen?
-
440 terabytes aan Nederlandse privébestanden zijn nu makkelijk doorzoekbaar
-
Waarom hebben zoveel mannen een rode baard zonder zelf rood haar te hebben?
-
9 tips van de wereldkampioen om te heersen bij Kolonisten van Catan
-
Dit is waarom we bijna de helft van onze wakkere tijd dagdromen
Comments
Source: motherboard.vice.com