Connect with us

Hi, what are you looking for?

Новости

Люди сняли блок на ИИ, взломав его с помощью картинок с невидимым подвохом

Люди сняли блок на ИИ, взломав его с помощью картинок с невидимым подвохом

Люди сняли блок на ИИ, взломав его с помощью картинок с невидимым подвохом

Американские учёные обнаружили, что современные системы искусственного интеллекта, анализирующие изображения, могут быть обмануты с помощью альфа-канала — слоя данных, отвечающего за прозрачность изображения.

Альфа-канал, который управляет прозрачностью изображений, часто игнорируется при создании ИИ-алгоритмов для анализа данных, что делает его уязвимым к атакам. Это открывает возможность кибератак в таких критически важных областях, как медицина и автопилот. 

Под руководством доцента Гвиневры Чэнь была разработана методика атаки AlphaDog, использующая эту слабость. 

Ученые создали 6500 изображений и проверили их на 100 ИИ-моделях, включая 80 систем с открытым кодом и 20 облачных платформ. Результаты показали, что схема AlphaDog особенно эффективна для манипуляции изображениями в оттенках серого. 

Например, в системах автопилота альфа-канал может искажать распознавание дорожных знаков, что несет риск аварий. 

В медицине он способен повлиять на анализ рентгеновских снимков или МРТ, что может привести к ошибочным диагнозам. Также угроза распространяется на системы распознавания лиц, ставя под удар конфиденциальность и безопасность объектов.

Чтобы устранить риски, ученые поделились результатами с крупными компаниями, такими как Google, Amazon и Microsoft, надеясь на доработку их ИИ-систем, сообщает 3dnews.

Ранее ИА МедиаПоток рассказал, что здоровье людей ухудшает повсеместный шум транспорта.