Сигналы светофоров в Сиэтле с глубоким фейком audio Bezos могли быть взломаны всего лишь с помощью мобильного телефона
Источник изображения:https://www.kuow.org/stories/seattle-jeff-bezos-deepfake-ai-crosswalks-hacked-cellphone
В последнее время в нескольких городах Западного побережья США, включая Сиэтл, прошла серия протестов против технологических миллиардеров.
Однако эти протесты не выражались в виде ярких плакатов или маршей.
Светофоры были взломаны, чтобы воспроизводить сатирические образы миллиардеров, когда пешеходы нажимают кнопки для перехода улицы.
Вместо привычного роботизированного голоса, который сообщает, что переходить опасно, по крайней мере на пяти пересечениях в Сиэтле на прошлой неделе звучало следующее: “Привет, я Джефф Безос.
Этот светофор поддержан Amazon Prime и содержит важное сообщение.
Пожалуйста, не облажайте богатых, иначе все остальные миллиардеры также переедут во Флориду”.
Голос звучит как голос основателя Amazon Джеффа Безоса — эксперты по технологиям утверждают, что это, вероятно, генеративный искусственный интеллект (ГИИ).
В Сиэтле записи с Безосом заканчивались песней комика Бо Бернхэма.
Отдельно сообщается, что это происходило не только в Сиэтле.
В Силиконовой долине было зафиксировано, что некоторые светофоры воспроизводили записи, звучащие как Марк Цукерберг из Meta и Илон Маск из Tesla.
Amazon, Meta и Tesla не ответили на запросы о комментариях.
Ава Пакзад, студентка Университета Вашингтона, сказала, что этот розыгрыш ее улыбнул.
“Это действительно смешно,” — сказала Пакзад.
“И приятно видеть, что некоторые люди делают что могут”.
Три из подмененных светофоров находились в районе Университета.
Еще один — рядом с штаб-квартирой Amazon в Южном Озере.
Многие люди, работающие в компании, не захотели говорить о фальшивых сообщениях.
Но Мэйсон Мэйс, который работает в ресторане рядом с HQ Amazon, сказал, что ему не нравится этот розыгрыш светофора.
“[Это] действительно странно и необычно,” — сказал Мэйс, “потому что сейчас любое место может быть взломано.
Если наши знаки светофора могут быть взломаны, значит, любое другое оборудование также может быть”.
Неизвестно, кто несет ответственность за взломы.
SDOT не уточнила, как это произошло или кто мог это сделать.
В электронном письме KUOW представитель сказал, что они временно отключили связь на некоторых светофорах, которые, по всей видимости, были взломаны по беспроводной связи.
SDOT работает с поставщиком кнопок на светофорах, чтобы укрепить безопасность, добавил представитель.
Дэвид Колбреннер, который является сопредседателем Лаборатории исследований безопасности и конфиденциальности Университета Вашингтона, сказал, что, вероятно, это не было очень трудно сделать.
“Они не очень защищены.
Это сделано нарочно,” — сказал Колбреннер.
“Их намерение заключается в том, чтобы они были легкими в использовании.
Они пригодны для использования людьми на местах, и поэтому они не хотят, чтобы в них было много сложности при взаимодействии с ними”.
Он сказал, что каждый сигнал светофора можно подключить с помощью телефонного приложения и Bluetooth.
Это дает возможность городу быстро исправить сигнал или обновить аудио на конкретном светофоре.
Вам нужен только пароль для входа.
Колбреннер сказал, что он считает, что в этом случае сигналы, вероятно, использовали стандартный пароль от производителя, который обычно прост и легко угадываем.
“Итак, если вы не измените начальный пароль, вы просто сможете подойти, подключиться к устройству и затем загрузить звуковой файл, который хотите,” — сказал он.
В декабре что-то подобное произошло в Южном Озере, когда знак строительной дороги был взломан, чтобы показать анти-CEO сообщение.
“Существует много инфраструктуры, которая работает по такому принципу, и она не предназначена для того, чтобы кто-то злонамеренно ее атаковал,” — сказал Колбреннер.
“Мы надеемся на то, что люди будут разумными гражданами и не будут это делать”.
Когда речь идет о технологиях ИИ, которые, вероятно, сделали этот трюк возможным, исследовательница UW Сесилия Арагон сказала, что это также довольно просто.
“Все, что им нужно сделать, это иметь записанные образцы голоса этого человека,” — сказала Арагон, чья работа включает в себя AI-сгенерированный аудио.
“По сути, любой, кто был записан и является полупубличной фигурой, подвержен такому типу обмана.”
Арагон назвала это клонированием голоса.
С помощью всего лишь нескольких аудио образцов ИИ может научиться речи, акценту и интонации человека.