Уважаемые пользователи seo-vebmaster.ucoz.net. Вы найдете у нас на портале - различные скрипты сайтов, уникальные, бесплатные шаблоны, модули, хаки и релизы популярных CMS . С Уважением Администрация seo-vebmaster.ucoz.net
  • Страница 1 из 1
  • 1
Новый инструмент для "отравления" создает проблемы для техно
diamont1977
Дата: Пятница, 29.12.2023, 16:45 | Сообщение # 1
Администраторы
Сообщений:
1542
Замечания:
0
Offline
Новый инструмент для "отравления" создает проблемы для технологии преобразования текста в изображение с помощью искусственного интеллекта


Тревор Могг
Автор Тревор Могг
29 октября 2023 г.
Профессиональные художники и фотографы, недовольные тем, что компании, занимающиеся генеративным искусственным интеллектом, используют их работу для обучения своих технологий, вскоре могут найти эффективный способ реагирования, не требующий обращения в суды.

Генеративный искусственный интеллект вырвался на сцену с запуском чат-бота ChatGPT от OpenAI почти год назад. Инструмент чрезвычайно искусен в общении очень естественным, человеческим способом, но для получения этой способности его нужно было обучить работе с массивами данных, почерпнутых из Интернета.

Аналогичные генеративные инструменты искусственного интеллекта также способны создавать изображения из текстовых подсказок, но, как и ChatGPT, они обучаются путем извлечения изображений, опубликованных в Интернете.

Это означает, что технологические фирмы используют их работы — без согласия или компенсации — для создания своих инструментов искусственного интеллекта.

Для борьбы с этим команда исследователей разработала инструмент под названием Nightshade, который способен сбивать с толку обучающую модель, заставляя ее выдавать ошибочные изображения в ответ на запросы.

Недавно в статье MIT Technology Review говорилось, что Nightshade “отравляет” обучающие данные, добавляя невидимые пиксели к произведению искусства перед его загрузкой в Интернет.

“Использование его для ‘отравления’ обучающих данных может повредить будущим итерациям моделей ИИ, генерирующих изображения, таким как DALL-E, Midjourney и Stable Diffusion, сделав некоторые из их результатов бесполезными — собаки становятся кошками, автомобили - коровами и так далее”, - говорится в отчете MIT, добавляя, что исследование Nightshade было представлено на экспертную оценку.

Хотя инструменты для создания изображений уже впечатляют и продолжают совершенствоваться, способ их обучения оказался спорным, и многие создатели инструментов в настоящее время сталкиваются с судебными исками от художников, утверждающих, что их работы использовались без разрешения или оплаты.

Профессор Чикагского университета Бен Чжао, возглавлявший исследовательскую группу Nightshade, сказал, что такой инструмент может помочь вернуть баланс сил художникам, сделав предупредительный выстрел по технологическим фирмам, которые игнорируют авторские права и интеллектуальную собственность.

“Наборы данных для больших моделей ИИ могут состоять из миллиардов изображений, поэтому, чем больше искаженных изображений можно вставить в модель, тем больший ущерб нанесет технология”, - говорится в отчете MIT Technology Review.

Когда Nightshade выпустит его, команда планирует сделать его с открытым исходным кодом, чтобы другие могли усовершенствовать его и сделать более эффективным.

Осознавая его потенциальную разрушительную силу, команда, стоящая за Nightshade, заявила, что его следует использовать как “последнюю защиту создателей контента от веб-мошенников”, которые не уважают их права.

Стремясь решить проблему, создатель DALLI OpenAI недавно начал разрешать художникам удалять свои работы из своих обучающих данных, но процесс был описан как чрезвычайно обременительный, поскольку он требует, чтобы художник отправлял копию каждого изображения, которое они хотят удалить, вместе с описанием этого изображения, причем для каждого запроса требуется отдельное приложение.

Значительное упрощение процесса удаления может в какой-то степени отбить у художников охоту использовать такой инструмент, как Nightshade, что в долгосрочной перспективе может вызвать гораздо больше проблем у OpenAI и других.
  • Страница 1 из 1
  • 1
Поиск: