Anthropic уничтожила миллионы книг для обучения своих AI-моделей
Судебные документы раскрыли, что компания
Anthropic уничтожила миллионы печатных книг ради обучения своих AI-моделей. В рамках проекта по созданию Claude (аналог
ChatGPT) в 2024 году Anthropic наняла Тома Тёрви, экс-главу
Google Books, и поставила задачу собрать «все книги мира» — по примеру сканирования Google, признанного легальным в
США. Для ускорения процесса книги были уничтожены (обрезаны корешки), оцифрованы, а оригиналы выброшены.
- Масштабная «разрушительная» оцифровка позволила быстро и дешево создать огромный датасет для AI, но вызвала этические и юридические споры.
- Судья Уильям Алсуп признал действия Anthropic допустимым вариантом fair use (добросовестного использования), так как компания купила книги и не распространяла их цифровые копии, а хранила только для внутренних нужд.
- Однако часть прошлых действий Anthropic подпала под понятие пиратства, что лишило компанию первого в индустрии легального прецедента fair use для обучения AI.
- Прецедент усиливает споры вокруг допустимости оцифровки защищённых авторским правом материалов для обучения искусственного интеллекта и подчеркивает значимость прозрачности в источниках данных.
Читайте также
Reddit подал в суд на Anthropic за использование удалённых постов пользователей для обучения ИИ
Глава Anthropic против 10-летнего запрета на регулирование AI в США
Ключевое решение по fair use разъясняет, когда книги можно использовать для обучения ИИ
Чат-боты с ИИ говорят пользователям то, что им хочется услышать — и это проблема
Суд США: обучение ИИ на книгах допустимо по «fair use», если копии не пиратские
Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!