Софтуер

Системите за лицево разпознаване могат да бъдат излъгани

Мария Динкова

Технологията за лицево разпознаване все по-често се използва навсякъде. Нов тест обаче поставя под съмнение точността на някои от тези системи, като показва, че те могат да бъдат излъгани от потребители, носещи маски, пише Engadget.

За да извърши теста, компанията за изкуствен интелект Kneron е създала висококачествени 3D маски, копиращи истинско лице, и е пробвала дали някой може да премине през системите за лицево разпознаване с тях. В крайна сметка изследователите са успели да извършат покупка през чуждия профил в AliPay и WeChat.

Екипът дори е успял да излъже летищни системи. На летището "Схипхол" в Амстердам те са подвели системата за самостоятелно получаване на достъп до борда на самолета само със снимка. Също така те са успели да излъжат влаковите системи в Китай, при които пътниците използват лицево разпознаване, за да плащат за своето пътуване. Всички тестове са били извършени след получаване на необходимите разрешения.

Това не е първият път, когато се засяга темата относно точността на технологията за лицево разпознаване. През август Американският съюз на гражданските свободи обяви, че технологията не е успяла да идентифицира 26 калифорнийски конгресмени, предимно цветнокожи. Друг пример са системите за лицево разпознаване на полицията във Великобритания, които допускат 81% грешки.

Определено някои системи за лицево разпознаване са по-добри от други. Например от Kneron отбелязаха, че техният тест не е успял да измами iPhone X. Други системи обаче са били лесни за преодоляване. Основното притеснение е, че хората могат да се представят за богати индивиди и да имат достъп до техните банкови сметки и други профили. Също така има и опасност по този начин терористи да могат да заобикалят мерките за сигурност на обществени обекти.

Според експертите тези проблеми могат да бъдат разрешни с използването на изкуствен интелект, но фирмите не ги актуализират и по-този начин жертват сигурността в името на по-бързото предлагане на услуги.




© Ай Си Ти Медиа ЕООД 1997-2020 съгласно Общи условия за ползване

X