Ученые научили нейронные сети генерации искусственных отпечатков пальцев, которые затем использовали в качестве ключа доступа к биометрической системе установления личности.
Таким образом, было доказано, что фальшивые отпечатки все же можно изготовить и даже использовать их для фейковой идентификации личности и взлома устройств.
Ученые из Университета Нью-Йорка смогли сымитировать каждый пятый образец системы биометрической идентификации. При этом, уровень вероятности возникновения ошибки составлял не более одного на тысячу, пишет The Guardian.
Чтобы обмануть систему, ученые воспользовались двумя ее особенностями. Во-первых, из эргономических соображений большинство устройств для считывания отпечатков не читают весь отпечаток за раз. Вместо этого они снимают лишь ту часть пальца, которая прикасается к сканеру.
Важно то, что такие системы не составляют во едино все части изображения, чтобы распознать целостный отпечаток пальца. Вместо этого они просто сравнивают доступную частичку с тем, что есть в базе. Это означает, что злоумышленнику требуется совпадение только с одним из сотен тысяч сохраненных частичных образцов отпечатков пальцев, чтобы получить доступ.
Во-вторых, ученые обратили внимание на то, что некоторые черты отпечатков более распространены, чем другие. Это означает, что фальшивка, которая содержит в себе много популярных рисунков, имеет высокие шансы обмануть систему.
Опираясь на эти наблюдения, американские исследователи создали фальшивые отпечатки, которые можно выдать за как можно большее количество настоящих. Такой метод вряд ли поможет при взломе конкретной защищенной биометрическими данными учетной записи. Но когда речь идет о целой базе отпечатков, это может сработать.
Как сообщала "Страна", собеседования с туристами на границе стран Европейского Союза будет проводить искусственный интеллект.
Ранее искусственный интеллект снял первую короткометражку про опасный вирус.
Мы писали, что в Google запретили разрабатывать искусственный интеллект для военных целей.