Всеобщее помешательство нейросетями и искусственным интеллектом не обошло стороной и браузеры, однако разработчики Vivaldi уверены, что в на данном этапе большие языковые модели вряд ли готовы к тому, чтобы добавлять их в браузер в качестве виртуального помощника. В чём проблема?
Vivaldi не позволит машине обманывать пользователей
ChatGPT попал в поле зрения общественности чуть больше года назад, и за это время нейросети успели проникнуть во все сферы общественной жизни, а в некоторых отраслях даже начали заменять собой людей. И даже поисковые системы без подобных алгоритмов представить теперь довольно сложно.
Не обошла эта тенденция и браузеры, и большинство крупных игроков уже успели встроить в свои продукты какую-то языковую модель LLM (Large Language Model).
Возможно, разработчики, встраивающие в свои браузеры подобные алгоритмы, действительно верят в то, что помогают нам придти к светлому технологическому будущему, но, возможно, они просто не обращают внимания на ключевой недостаток всех нейросетей: большие языковые модели не особо подходят на роль собеседника и пока слабо справляются с осознанным обобщением текста.
Причём это фундаментальные проблемы, а не что-то, что можно исправить в обозримом будущем. Однако, чтобы понять это, сперва придётся разобраться с тем, как именно работают языковые модели.
Нам бы не хотелось пускаться в технические дебри. Постараемся объяснить всё кратко и максимально понятно. Возможно, некоторые детали придётся опустить, но всё, о чём мы будем говорить ниже, справедливо для всех языковых моделей.
Кстати, о многих аспектах нашей статьи уже предупреждали и другие эксперты. Если интересуетесь темой, можете ознакомиться со статьёй «Вы – не попугай, а чат-бот – не человек».
Что подразумевается под большими языковыми моделями?
Большая языковая модель (Large Language Model, LLM) – это математическое описание того, как выглядит наш с вами язык. В её основе – обширные письменные источники, на основе которых нейросеть и пытается угадать, какое слово должно быть следующим. Чтобы получившийся текст казался более живым, в него добавляют щепотку случайности, а затем уже другая языковая модель проверяет, насколько хорошо звучит получившейся ответ. Иногда вместо второй нейросети используют живых людей (которым, к слову, почти не платят): они должны прочитать полученный текст и решить, насколько правдоподобно он звучит.
И тут нас поджидают сразу две фундаментальные проблемы:
Нарушение авторских прав и угроза конфиденциальности
Чтобы предсказать, какое слово должно быть следующим, нужно перелопатить огромные массивы текста. Чем больше, тем лучше и точнее. Каждое предложение, скормленное нейросети, повышает качество её работы. Причём желательно, чтобы этот текст был максимально свежим и отображал реальный язык общения в современном обществе.
Другими словами, у тех, кто стоит за нейросетью, есть веский повод обратить свой взор в сторону социальных сетей. И, к сожалению, в некоторых случаях языковая модель может повторять чужой текст почти дословно (обычно это происходит в тех случаях, когда лучшего ответа на запрос пользователя попросту не нашлось). В результате нейросети могут плагиатить чужой текст, часто защищённый законом об авторском праве.
Если же нейросеть тренировалась на публикациях в соцсетях, она может выдавать и деликатные данные случайных пользователей. И энтузиасты уже нашли способ заставить нейросеть забыть о «нравственных ориентирах», заданных разработчиками. Мы всегда осознавали риски, связанные с использованием языковых моделей, и никогда не стремились добавлять что-то подобное в наш браузер.
Правдоподобная ложь
Поскольку большая часть текстов, на которых обучаются языковые модели, была взята из интернета, в нём полно мусора: от плохо написанного текста до фактологических ошибок и прямых оскорблений. Первые эксперименты по обучению нейросетей на основе публикаций в интернете привели к тому, что уже через несколько дней языковые модели скатывались к оскорблениям и угрозам, демонстрируя свою полную непригодность к общению с пользователями. И с тех пор мало что изменилось, просто теперь языковые модели проходят несколько дополнительных стадий фильтрации.
К сожалению, как уже было сказано выше, чтобы ответ языковой модели был действительно полезным пользователю, нужно изучить огромное количество вариантов. Не все эксперты смогли бы справится с подобной задачей даже в своей области. Что уж говорить про нейросеть, которая просто перебирает варианты? Если же фильтрацией ответов языковой модели занимаются люди, всё сводится к субъективному восприятию: если текст звучит хорошо, мало кто обратит внимание на то, насколько он точен или правдив. В отношении общеизвестных фактов языковые модели и те, кто должен их проверять, справятся вполне неплохо, а вот в узких темах начнутся проблемы. Так что запрос к нейросети всегда будет связан с определёнными рисками.
Итак, как поступить?
В нашем понимании распиаренные языковые модели – всего лишь шарлатаны, которые только притворяются экспертами по всем вопросам, время от времени присваивают себе чужие работы и раскрывают деликатные данные. При этом для их работы требуется колоссальные объёмы электроэнергии и неплохое железо. А это мы тоже уже проходили во время недавнего бума криптовалют.
Другими словами, нам кажется, что включать нечто подобное в Vivaldi на данном этапе было бы весьма опрометчивым шагом. В мире сейчас и так достаточно дезинформации. Мы не планируем добавлять в браузер чат-бот на базе какой-нибудь нейросети, и мы не планируем использовать нейросети для того, чтобы автоматизировать работу с нашими ресурсами. По крайней мере до тех пор, пока не будут исправлены обозначенные выше проблемы. А со временем более совершенные способы рутинных задач всё-таки появятся.
Однако использование Vivali всегда было вопросом выбора, и мы не станем вставлять вам палки в колёса, если вы вдруг решите поработать с какой-то нейросетью онлайн.
Надеемся, что со временем развитие машинного обучение действительно приведёт нас к созданию чего-то по-настоящему полезного и значимого. И было бы неплохо, если люди, которые стоят за современными нейросетями, понимали свою ответственность перед миром. Уважайте конфиденциальность пользователей, и всё будет хорошо.
Ну а мы и дальше будем стремиться к тому, чтобы у вас был максимально удобный и привлекательный браузер.
Жюлиен Пикалауса,
Vivaldi Technologies
5 февраля 2024