Олег Лашманов об ИИ: «Качество литературы в среднем вновь упадет, так же, как это было с появлением интернета»

 
04.06.2025
 
Лаборатория «Искусство и искусственный интеллект»; Школа вычислительных социальных наук
 
Олег Юрьевич Лашманов; Йоел Регев
 
Европейский в медиа

В декабре 2024 года вышла книга гонконгского философа Цзяньвэй Сюня, которой посвящали рецензии уважаемые издания и обсуждали на круглых столах исследователи демократии. Однако выяснилось, что философа не существует, а книгу составил эссеист Андреа Коламедичи, который генерировал текст с помощью искусственного интеллекта.

Эта новость о мистификации привлекла к книге еще большее внимание. «Собака.ру» спросила, что думают о таком прецеденте эксперты из разных областей. Среди них — два сотрудника Европейского. Олег Лашманов, научный руководитель и исполнительный директор Лаборатории «Искусство и искусственный интеллект» Европейского, и Йоэль Регев, доцент Центра практической философии «Стасис». 

 

Приводим комментарий Олега Лашманова:

Тут хороший вопрос: а являются ли текущие алгоритмы авторами? Ведь если мы признаем авторство, то признаем и субъектности, а значит, наделяем правами алгоритм. В текущих реалиях GPT подобные алгоритмы совсем не интеллекты. Это скорее продвинутые автодополнители текста, которые хорошо умеют мимикрировать под стиль письма человека. В заметке [о «Гипнократии»] отлично показано, что Коламедичи использовал инструменты ИИ не как соавтора, а именно как инструменты.

Проблема тут шире — сейчас трудно найти тексты, куда не ступала нога GPT. А дальше будет только хуже. Что в этом плохого? Плохо то, что обучать новые модели будет сложно, ведь они будут учиться в том числе на текстах сгенерированных предыдущими моделями, и это будет сказываться (на самом деле уже сказывается) на качестве обучения.

Мы попадаем в ситуацию подобную deep thinking (cain of thoughts), когда модель генерирует текст на основе своих же «умозаключений» и, «рассуждая», получает какой-то вывод. Как может легко убедиться любой желающий, качество таких «рассуждений» не всегда удовлетворительное. У вас возникнет вопрос: а что делать?

Ответ: ничего. Текст это штука, которую сложно маркировать. И отличить сгенерированный текст от написанного сложно. Так что инженерам придется придумать способ учить модели с учетом новых реалий. Как это влияет на человека и человечество? Сложно сказать, но качество литературы в среднем вновь упадет, так же как это было с появлением интернета, когда каждый стал писателем.

 

 

И комментарий Йоэля Регева:

Развитие ИИ не сильно отличается от развития других технологий, которые берут на себя какие-то функции, раньше выполнявшиеся человеком. Тем самым люди освобождают время и ресурсы для того, чтобы заниматься чем-то более важным.

Понятно, что 90–95 % функций, которыми занимаются современные интеллектуалы — ученые, университетские философы, — уже сейчас (в крайнем случае в течение года-трех) можно выполнять с помощью ИИ. И все же… я не думаю, что кейс «Гипнократии» говорит нам о том, что философы станут не нужны.

Точно так же как современному философу не надо больше макать гусиное перо в чернила и раскалывать полено на лучины, чтобы иметь свет, так философы ближайшего будущего смогут обойтись без ручного поиска и структурирования информации.

Какова в этих условиях человеческая функция? Я думаю, что за нами останется способность ориентироваться в мышлении, как это называл Кант. Подобно тому, как мы знаем, что и где у нас лежит дома, так и философ знает, какие проблемы сейчас для нас актуальны, где могут лежать решения, куда идти, чтобы всем становилось свободнее и легче дышать.



Комментарии остальных экспертов — в полной версии материала на «Собаке.ру».