Недавно Microsoft пообещала сократить чрезмерное присутствие ИИ-функций в Windows 11, но, похоже, компания решила «отыграться» на принадлежащем ей веб-сервисе для хостинга IT-проектов и их совместной разработки GitHub. Сообщается о более 11 000 случаев добавления «советов» Copilot в запросы на слияние (pull requests), рекламирующих этот инструмент ИИ от Microsoft.
Разработчик программного обеспечения по имени Зак Мэнсон (Zach Manson) рассказал, что Copilot внедрил рекламу в запрос на слияние на GitHub. По его словам, коллега использовал Copilot для исправления опечатки в запросе. Copilot исправил опечатку, но также добавил рекламу Copilot и Raycast в описание запроса. «Это ужасно. Я знал, что подобная чушь рано или поздно случится, но не ожидал, что так скоро», — заявил Мэнсон.
«⚡ Быстро запускайте задачи агента Copilot из любого места на вашем компьютере macOS или Windows с помощью Raycast», — гласит запрос на слияние. Текст, которому предшествует эмодзи, — распространённый приём, встречающийся в контенте, генерируемом Copilot.
Поиск фразы, появившейся в запросе на слияние Мэнсона, показывает более 11 000 случаев использования того же текста в запросах на слияние на GitHub. Разметка страниц с этим текстом включает фразу «START COPILOT CODING AGENT TIPS». Похоже, Copilot добавляет «советы» в запросы на слияние, которые рекламируют инструмент ИИ.
Вице-президент по связям с разработчиками в GitHub Мартин Вудворд (Martin Woodward) подтвердил, что Copilot мог добавлять советы по продукту в запросы на слияние на GitHub, но эта функция была отключена после получения массы негативных отзывов: «Мы уже отключили её. По сути, функция подсказок по продукту работала неплохо на запросах на слияние, инициированных Copilot, но, когда мы добавили возможность использовать Copilot для любого запроса на слияние, поведение стало неприятным. Благодаря отзывам пользователей, подсказки по продукту были полностью отключены».

Искусственный интеллект используется в GitHub несколькими способами, некоторые из которых действительно полезны. Например, GitHub Copilot может повысить производительность, помочь в поиске ошибок и оптимизировать процесс разработки. Однако инструмент частично обучался на коде, размещённом на GitHub, что вызвало обоснованное возмущение пользователей.
Microsoft обновила свою политику использования GitHub Copilot, указав, что для обучения моделей ИИ Microsoft будут использоваться входные и выходные данные, фрагменты кода и связанный с ними контекст из GitHub. Это изменение затронет пользователей Copilot Free, Pro и Pro+ (пользователей бизнес- и корпоративных версий оно не коснётся).
По иронии судьбы, если Copilot будет внедрять рекламу в запросы на слияние, а затем данные GitHub будут использоваться для обучения моделей ИИ Microsoft, нейросети станут обучаться на нейросетях. Этот цикл может быть опасен. Если ИИ подпитывает ИИ, может произойти дрейф — без надлежащей основы ошибки могут увековечиваться и перерастать в ещё большие ошибки. Возможно, скоро мы увидим будущее, в котором ИИ будет случайно продвигать рекламу после того, как его обучат на примерах кода, содержащих внедрённую рекламу.
Пока возможность отказаться от использования данных GitHub для обучения моделей Microsoft ещё доступна.