Генераторы картин с искусственным интеллектом становятся все более популярными и мощными, а художники столкнулись с проблемой — как защитить свои изображения от ИИ (таких как DALL-E, Midjourney и Stable Diffusion).
Исследователи из Чикагского университета разработали технику, которую художники могут использовать для внедрения невидимой “капли яда” в свои работы, сообщает Мелисса Хейккиля из MIT Technology Review. Инструмент, называемый Nightshade, изменяет пиксели изображения таким образом, который люди не могут обнаружить.
Однако ИИ , заметит эти изменения, которые разработаны специально для того, чтобы ухудшить способность моделей искусственного интеллекта маркировать свои изображения. Если модель искусственного интеллекта обучать на такого рода изображениях, ее способности начнут снижаться. Например, автомобиль будет «распознан» как корова, а тостер станет сумкой.
Бендж Эдвардс из Ars Technica:
Таким образом, для человека или обычной автоматической проверки изображение и текст кажутся соответствующими. Но в скрытом пространстве модели изображение обладает характеристиками как оригинала, так и «капли яда», которая сбивает модель с толку при обучении на данных.
Поскольку модели ИИ обучаются на обширных наборах данных, идентификация «отравленных» изображений становится сложной и трудоемкой задачей для технологических компаний, и даже несколько вводящих в заблуждение картинок (авторов которых не спросили) могут нанести ущерб. Когда исследователи добавили 50 модифицированных изображений, на которых собаки были помечены как кошки, в режим свободного распространения, модель одного из ИИ начала генерировать искаженные изображения собак. После 100 повторений модель начала создавать изображения, которые были больше похожи на кошек. После 300 циклов, у генерированных по запросу «собака» изображений, практически не осталось похожих на собаку черт.
Ранее команда выпустила аналогичный инструмент под названием Glaze, который маскирует стиль художника от инструментов искусственного интеллекта, пытающихся его проанализировать.
В конечном счете, исследователи надеются, что Nightshade может помочь художникам защитить свои изображения от ИИ. Бен Чжао, специалист по компьютерам из Чикагского университета, возглавлявший команду Nightshade:
Я думаю, что прямо сейчас у [технологических] компаний очень мало причин менять методы своей работы. Они буквально говорят авторам: «Все что под солнцем принадлежит нам, и вы ничего не можете с этим поделать.»
Мне кажется, что таким образом мы просто как бы подталкиваем их быть честными. Посмотрим, произойдет ли это на самом деле.
Стоит помнить, что Nightshade может защитить работы художников от новых моделей ИИ и не имеет возможности влиять на более более старые. “Эта [технология] работает во время тренировки и дестабилизирует [модель] навсегда”, — рассказал Бен Чжао журналисту из Axios. “Конечно, разработчики могут просто откатить свою модель до более стабильной/правильной версии, не испорченной Nightshade, но программа усложняет им создание новых моделей”.
Разработчики инструмента также признают — существует вероятность того, что технология Nightshade может быть использована не по назначению и в злонамеренных целях. Тем не менее, по их словам, целенаправленная атака на какой-либо ИИ потребовала бы тысячи «отравленных образцов», чтобы нанести ущерб более крупным моделям искусственного интеллекта, таким, например, как Midjourney, которые обучаются на миллиардах образцов данных.
Nightshade — важный шаг в борьбе за защиту художников, выступающих против технологических компаний, заявляет Мэриан Маццоне, специалист по современному искусству в Колледже Чарльстона, которая также работает в Лаборатории искусства и искусственного интеллекта Университета Ратгерса.
У художников теперь есть инструмент для защиты, и это важно. Чувствовать себя беспомощным — очень нехорошо.
В то же время Маццоне опасается, что «Nightshade», возможно, не станет долгосрочным решением. Она считает, что художники и дизайнеры должны продолжать предпринимать действия связанные с законодательством, так как финансовые ресурсы корпораций и быстрое развитие технологий ИИ могут в конечном итоге сделать такие программы, как Nightshade, устаревшими и не эффективными.
Сами же художники отреагировали на Nightshade крайне положительно. Например, художница Autumn Beverly рассказала, что после того, как обнаружила незаконное использование её работ, она просто перестала размещать их в Интернете. Такие инструменты, как Nightshade и Glaze, позволили ей снова с комфортом делиться своими картинами в Интернете.
Я просто очень благодарна за то, что у нас есть инструмент, который может помочь вернуть художникам силы для продолжения работы.
P.S.
Видимо, в этом вся суть человечества — создать проблему, чтобы потом с ней бороться 🙂 🙂 😉
Другие позитивные новости в мире
В мире усиливается регулирование ИИ
Использованы материалы: https://arxiv.org/abs/2310.13828 https://arstechnica.com/information-technology/2023/10/university-of-chicago-researchers-seek-to-poison-ai-art-generators-with-nightshade/ https://glaze.cs.uchicago.edu/ https://www.axios.com/2023/10/27/ai-poison-nightshade-license-dall-e-midjourney https://creativeaction.network/blogs/artists/autumn-beverly
Генераторы картин с искусственным интеллектом становятся все более популярными и мощными, а художники столкнулись с проблемой — как защитить свои изображения от ИИ (таких как DALL-E, Midjourney и Stable Diffusion). Исследователи из Чикагского универ...
Художники смогут защитить свои изображения от ИИ
Время на прочтение: 3 минут(ы)
Генераторы картин с искусственным интеллектом становятся все более популярными и мощными, а художники столкнулись с проблемой — как защитить свои изображения от ИИ (таких как DALL-E, Midjourney и Stable Diffusion).
Исследователи из Чикагского университета разработали технику, которую художники могут использовать для внедрения невидимой “капли яда” в свои работы, сообщает Мелисса Хейккиля из MIT Technology Review. Инструмент, называемый Nightshade, изменяет пиксели изображения таким образом, который люди не могут обнаружить.
Однако ИИ , заметит эти изменения, которые разработаны специально для того, чтобы ухудшить способность моделей искусственного интеллекта маркировать свои изображения. Если модель искусственного интеллекта обучать на такого рода изображениях, ее способности начнут снижаться. Например, автомобиль будет «распознан» как корова, а тостер станет сумкой.
Бендж Эдвардс из Ars Technica:
Поскольку модели ИИ обучаются на обширных наборах данных, идентификация «отравленных» изображений становится сложной и трудоемкой задачей для технологических компаний, и даже несколько вводящих в заблуждение картинок (авторов которых не спросили) могут нанести ущерб. Когда исследователи добавили 50 модифицированных изображений, на которых собаки были помечены как кошки, в режим свободного распространения, модель одного из ИИ начала генерировать искаженные изображения собак. После 100 повторений модель начала создавать изображения, которые были больше похожи на кошек. После 300 циклов, у генерированных по запросу «собака» изображений, практически не осталось похожих на собаку черт.
Ранее команда выпустила аналогичный инструмент под названием Glaze, который маскирует стиль художника от инструментов искусственного интеллекта, пытающихся его проанализировать.
В конечном счете, исследователи надеются, что Nightshade может помочь художникам защитить свои изображения от ИИ. Бен Чжао, специалист по компьютерам из Чикагского университета, возглавлявший команду Nightshade:
Стоит помнить, что Nightshade может защитить работы художников от новых моделей ИИ и не имеет возможности влиять на более более старые. “Эта [технология] работает во время тренировки и дестабилизирует [модель] навсегда”, — рассказал Бен Чжао журналисту из Axios. “Конечно, разработчики могут просто откатить свою модель до более стабильной/правильной версии, не испорченной Nightshade, но программа усложняет им создание новых моделей”.
Разработчики инструмента также признают — существует вероятность того, что технология Nightshade может быть использована не по назначению и в злонамеренных целях. Тем не менее, по их словам, целенаправленная атака на какой-либо ИИ потребовала бы тысячи «отравленных образцов», чтобы нанести ущерб более крупным моделям искусственного интеллекта, таким, например, как Midjourney, которые обучаются на миллиардах образцов данных.
Nightshade — важный шаг в борьбе за защиту художников, выступающих против технологических компаний, заявляет Мэриан Маццоне, специалист по современному искусству в Колледже Чарльстона, которая также работает в Лаборатории искусства и искусственного интеллекта Университета Ратгерса.
В то же время Маццоне опасается, что «Nightshade», возможно, не станет долгосрочным решением. Она считает, что художники и дизайнеры должны продолжать предпринимать действия связанные с законодательством, так как финансовые ресурсы корпораций и быстрое развитие технологий ИИ могут в конечном итоге сделать такие программы, как Nightshade, устаревшими и не эффективными.
Сами же художники отреагировали на Nightshade крайне положительно. Например, художница Autumn Beverly рассказала, что после того, как обнаружила незаконное использование её работ, она просто перестала размещать их в Интернете. Такие инструменты, как Nightshade и Glaze, позволили ей снова с комфортом делиться своими картинами в Интернете.
P.S.
Видимо, в этом вся суть человечества — создать проблему, чтобы потом с ней бороться 🙂 🙂 😉
Другие позитивные новости в мире
В мире усиливается регулирование ИИ
Использованы материалы:
https://arxiv.org/abs/2310.13828
https://arstechnica.com/information-technology/2023/10/university-of-chicago-researchers-seek-to-poison-ai-art-generators-with-nightshade/
https://glaze.cs.uchicago.edu/
https://www.axios.com/2023/10/27/ai-poison-nightshade-license-dall-e-midjourney
https://creativeaction.network/blogs/artists/autumn-beverly
Tags: ИИновые технологиипозитивные новости в мирепозитивные новости культуры