Тенденция использования генеративного ИИ для создания изображений случайных людей в домах привела к проблемам как в США, так и в Великобритании. Полиция была вынуждена реагировать на несколько ложных сообщений, что расходует их ресурсы и отвлекает от настоящих вызовов.
Полиция города Оук Харбор в Вашингтоне опровергла слухи о том, что бездомный человек якобы посетил местную школу. "Эти сведения не соответствуют действительности," – сообщили в полиции, добавив, что никаких инцидентов с бездомными в школах не было.
Тем временем, полиция Дорсета в Англии получила звонок от "очень обеспокоенного родителя", который волновался, что мужчина находится в их доме с дочерью. На самом деле, это была шутка, но полиция отметила, что это использовало "ценные ресурсы" для проверки ложного вызова.
Как это произошло?
Обе ситуации вызваны розыгрышами с использованием ИИ, распространившимися в TikTok. С помощью нового ИИ-модели от Google, известной как Nano Banana, пользователи могли легко создавать фальшивые изображения людей, которые якобы находятся в их домах.
Прожекты стали известны как «тренд с AI бездомным человеком», где пользователи добавляют фотографии бездомного к снимкам своего жилья. Это привело к созданию шуток, например, когда девушки разыгрывают своих парней, утверждая, что в их доме находится голый работник.
Хотя розыгрыши могут показаться невинными, они создают проблему особенно для людей, не разбирающихся в технологиях, что заставляет полицию тратить время на ложные вызовы.
Ситуация усугубляется отсутствием осознания легкости создания таких изображений среди широкой публики, что приводит к ненужным проблемам для правоохранительных органов.

