Искусственный интеллект - тормоз для развития человека

Цифровизация способна остановить развитие человечества

Фото
Октагон

Цифровые технологии захватывают мир постепенно. Шаг за шагом они предлагают быстрые, простые и удобные решения, отучая людей от трудной работы по получению и освоению новых знаний, которая всегда была мотором развития человечества, пишет обозреватель «Октагона» Вера Зелендинова, приходя – как и многие думающие люди – к драматическому выводу: цифровизация способна остановить развитие человечества.

Энтузиазм, с которым публика отреагировала на открытие доступа к нейросети ChatGPT, свидетельствует о том, что искусственный интеллект (ИИ) превращается в настоящее оружие массового поражения. Но в отличие от энергии атома, исследования которой долгое время велись в тиши физических лабораторий и в один прекрасный момент были предъявлены миру в виде бомб, сброшенных на Хиросиму и Нагасаки, цифровые технологии захватывают мир постепенно. Шаг за шагом они предлагают быстрые, простые и удобные решения, отучая людей от трудной работы по получению и освоению новых знаний, которая всегда была мотором развития человечества.

В сетевых изданиях уже появилась масса публикаций, рекламирующих достоинства ChatGPT. Нейросеть может написать школьное сочинение, студенческий реферат и курсовую работу, а также любые тексты на заданную тему, генерировать картинки, видео и программные коды, заменить сотни копирайтеров. Всё это так удобно для тех, кто не хочет работать своей головой. Довольны и владельцы СМИ, занимающихся компиляциями и «авторскими перепечатками» чужих статей. Они смогут на 90 процентов сократить свой штат. Движение в этом направлении уже началось. Американская медиакомпания BuzzFeed внесла в свой внутренний меморандум пункт об использовании искусственного интеллекта для создания контента.

image-20230221120016-1

Наша цивилизация начала подсаживаться на цифровые технологии 100 лет назад. Поначалу ради организации учёта и контроля. Дело хорошее и вполне невинное, но даже здесь не обошлось без эксцессов. Созданная в 1911 году и до сих пор доминирующая на рынке вычислительных машин компания IBM с 1933 года проводила расовые (выявление еврейских корней) переписи и предоставляла услуги по учёту узников концентрационных лагерей Третьего рейха.

С появлением в 1960-х годах электронных баз данных и поисковых систем произошёл прорыв в обработке больших объёмов информации. Скорость и точность (за счёт исключения человеческого фактора) компьютерных систем позволяла быстро выдавать отчёты любой глубины и сложности. Затем были разработаны программы-редакторы, которые существенно облегчили процесс написания и правки текстов, но занимались этим конкретные люди: студенты, аспиранты, журналисты, учёные. Вместо пишущей машинки у них появился более удобный инструмент, но характер работы над текстами не изменился.

С распространением интернета началась эпоха плагиата.

Работу с источниками и творческий процесс осмысления знаний и информации заменили быстрый поиск и компиляция. Но чтобы собрать таким образом статью, курсовую или дипломную работу, нужно было прочитать или хотя бы просмотреть несколько более-менее добротных текстов и скомпоновать надёрганные из них куски в осмысленный текст. То есть какую-то умственную работу нужно было проделать. Программы, заточенные на поиск плагиата, существенно осложнили жизнь компиляторов, но не решили проблемы. Многие студенты по-прежнему тратят усилия не на создание нового контента, а на пересказ чужих текстов (маскировку плагиата).

Нейросеть ChatGPT позволяет обойти все эти препятствия. Она способна создавать уникальные тексты, и «идентифицировать их как плагиат по старым методикам практически невозможно». О массовом использовании этого инструмента речи пока не идёт. И это хорошо, потому что, как подметили эксперты программистского сообщества Stack Overflow, «ответы, которые выдаёт ChatGPT, часто бывают неверными, но выглядят правдоподобно».

Падение уровня образования на фоне распространения интернета позволяет экстраполировать степень деградации, к которой приведёт популярность чат-ботов с их правдоподобными, но неверными ответами, в ряде случаев противоречащими элементарной логике. И коснётся эта деградация прежде всего гуманитарной сферы, отвечающей за культуру социума.

image-20230221120016-2

В конспектах своих лекций для студентов Кёнигсбергского университета Иммануил Кант писал, что «научить знанию невозможно». Знание – это то, чем человек может овладеть только сам. А для продуцирования нового знания нужна ещё более напряжённая работа. И далее: «…Мы учим студентов истории философии, а нужно научить их быть философами», то есть «думать самостоятельно, а не жонглировать обрывками чужих мыслей». Дело было 250 лет назад, во времена Екатерины Великой.

Затем, 100 лет назад, немец Освальд Шпенглер и испанец Хосе Ортега-и-Гассет разными путями и в разном контексте (первый противопоставлял культуру и цивилизацию, второй анализировал изменение роли масс в обществе) пришли к одному и тому же выводу.

Суть его сводилась к тому, что путь, по которому движется европейская цивилизация, ведёт в тупик, потому что в ней скоро будет некому создавать новое знание, а следом исчезнут и те, кто в состоянии его воспроизводить и воспринимать.

Как следствие, некому будет развивать или хотя бы поддерживать на прежнем уровне технический прогресс, которым так гордится Европа.

Сегодня, когда основанная на «пережёвывании» старых знаний профанная наука вступила в резонанс с бумом цифровых технологий, эти пророчества близки к исполнению. Знание как таковое уже перестало быть безусловной ценностью, и общество согласилось с этим, приняв идеологию богатства и успеха. Третьим в этой компании становится поклонение искусственному интеллекту, который уже сейчас может делать многое, а завтра научится ещё большему.

Тот факт, что ИИ можно обучить только имеющемуся знанию, в расчёт не принимается. Возможно, это связано с тем, что среди поклонников высоких технологий немало дурно образованных людей, не понимающих, что методы и направление обучения ИИ задают специальные программы, которые разрабатывают люди. Поэтому, когда вице-президент по инжинирингу IT-компании Ciklum Андрей Дегтярёв пишет, что «будущее уже наступило», и рассказывает, как лихо ChatGPT генерирует в html-формате код игры Рong, многие начинают думать, что чат-бот способен к независимому от его разработчиков самообучению (сгенерировал код – сгенерирует и обучающую программу).

В сухом остатке получается, что проблема продуцирования и освоения знания, которая занимала лучшие умы много лет назад, обострилась с появлением искусственного интеллекта из-за иллюзии, что он может заменить человека.

Проблема однако состоит в том, что нейросети могут имитировать многие виды деятельности и даже творческий процесс, как это сделала ChatGPT, рассказав историю о Колумбе, который прибыл в Америку в 2015 году. Но порождать принципиально новое знание, задающее направление развития науки, цивилизации и культуры человечества, они не могут.

На протяжении веков этим занималась наука, которая притягивала к себе способных и талантливых людей. Насаждаемое сегодня невежество резко снижает творческий потенциал социума, а распространение чат-ботов, способных ответить на любой вопрос (неважно, верно или нет), может выжечь это пространство дотла. И тогда возникнет вопрос о том, кто будет подбрасывать дровишки в костёр технического прогресса.

image-20230221120016-3

Разговоры о крайне низком уровне американского образования давно навязли в зубах. В России дела обстоят лучше, но ненамного. Школ и вузов, где почти ничему не учат, хватает во всех странах мира. Но в Соединённых Штатах с середины 2000-х годов стали создавать второй образовательный контур, состоящий из учебных заведений для детей элиты. В отличие от муниципальных школ и государственных университетов там царит жёсткая дисциплина, запрещено пользоваться айфонами и интернетом, а обучение ведётся по бумажным учебникам и программам, нацеленным на получение глубокого знания и всестороннее развитие умственных способностей.

Что получится из этой затеи, пока непонятно. Но формирование небольшого хорошо образованного слоя прекрасно вписывается в сценарии будущего, которые обсуждают в Давосе и на других посиделках демиургов мировой политики.

Практически все эти проекты – с точностью до конкретных деталей – предусматривают разделение человечества на две неравные части.

К высшей касте относятся контролирующая мировые богатства элита и её обслуга. Эти люди живут в местах с хорошей экологией (один из вариантов – плавающие в Мировом океане платформы), питаются качественными натуральными продуктами, наслаждаются искусством, но главное – в их руках сосредоточен весь корпус знаний, накопленный человечеством.

Низшая каста – это все остальные. Принадлежащие к ней могут быть заняты в индустрии, управляемой транснациональными компаниями, или сидеть по домам перед гаджетами, общаясь с чат-ботами, которые заменяют им реалии нормальной жизни. В целом установка делается на сокращение этой популяции, живущей в неблагоприятных экологических условиях, питающейся гусеницами и жучками, которых сегодня рекламирует Николь Кидман, и вымирающей как из-за плохих условий, так и по причине бессмысленности существования. Судя по антихристианскому, чтобы не сказать сатанинскому настрою западных элит, низшему слою не оставят даже религии, чтобы, прочитав от скуки канонические тексты, они не задумались об устройстве и смысле жизни.

Удастся ли сильным мира сего построить такое общество – большой вопрос.

Но классовая и образовательная сегрегация, не допускающая часть социума к знаниям, продолжается уже много лет. Полвека назад речь шла об искоренении культурного оптимизма 1960-х («to stamp out the cultural optimism of the 1960s»), потом о ненужности знания (всё есть в интернете), затем о цифровом образовании (то есть его профанации), а теперь ещё и о бессмысленности любой умственной деятельности (всё сделает какая-нибудь ChatGPT).

Системное отсекание большей части общества от образования (знания) при любом раскладе ставит вопрос о касте жрецов, которые должны обеспечивать научный, технический и технологический прогресс. Но проблема состоит в том, что до сих пор развитие происходило за счёт энергетики, которая возникала благодаря открытости системы знаний для притока свежих сил и идей. Если этого не будет, группы интеллектуалов будут вынуждены вариться в собственном соку, а замкнутые сообщества даже при самых благоприятных условиях деградируют и вырождаются.

image-20230221120016-4

Наделавшая столько шума ChatGPT была разработана лабораторией OpenAI, базирующейся в Сан-Франциско. Этот стартап был запущен в 2015 году при участии Илона Маска и других бизнесменов. В роли главных инвесторов выступили Microsoft, венчурный фонд Khosla Ventures и благотворительный фонд Рида Хоффмана. Через два года Маск покинул совет директоров OpenAl в связи с конфликтом интересов, а в феврале 2020 года написал в своём аккаунте в Twitter, что «не слишком верит в безопасность того, что разрабатывают под руководством Дарио Амодеи», который занимал в OpenAI пост директора по исследованиям.

В 2021 году Амодеи вместе с группой коллег покинул OpenAI и запустил новый стартап Anthropic. В число инвесторов этого проекта входят Центр исследования новых рисков, бывший генеральный директор Google Эрик Шмидт, один из основателей Facebook (принадлежит запрещённой в России компании Meta) Дастин Московиц, соучредитель Skype Яан Таллинн и другие. В январе 2023 года компания начала закрытое тестирование чат-бота Claude, заключила с Google Cloud договор об оказании облачных услуг и получила от головной компании Google 400 млн долларов в обмен на 10 процентов акций.

Судя по публикациям в американских профильных изданиях, созданный за два года чат-бот Claude является главным конкурентом ChatGPT, на разработку которой было потрачено семь лет, в том числе пять – под руководством Дарио Амодеи. По результатам этой истории возникает вопрос относительно уникальности системы Claude. Но, как пишет бостонский ресурс TechCrunch, «принципы работы Claude неизвестны, <...> сегодня считается, что чем мощнее система, тем сложнее объяснить её действия, и это не совсем хорошая тенденция, потому что главное – это безопасность».

image-20230221120016-5

Научная работа всегда считалась хорошим способом удовлетворить своё любопытство за счёт государства или инвесторов. Но нужна и трезвая оценка последствий, которые могут принести исследования и инновационные разработки. Когда в 1930-х годах Нильс Бор разрабатывал теорию ядерных реакций, он, скорее всего, не думал о создании ядерного оружия. В 1941 году он отказался участвовать в создании атомной бомбы для Третьего рейха. Эмигрировав в США, Бор присоединился к Манхэттенскому проекту, но, осознав масштаб угрозы, неоднократно обращался к американскому президенту с призывами отказаться от применения ядерного оружия. Но это не помогло.

Что касается искусственного интеллекта, сам термин «artificial intelligence» в буквальном переводе на русский означает «искусственное понимание», или «искусственная информация». А автор этого понятия Джон Маккарти еще в 1956 году настаивал на том, что «мы не можем определить, какие вычислительные процедуры мы хотим называть интеллектуальными», поэтому «под интеллектом в пределах этой науки (информатики) понимается только вычислительная составляющая».

Следуя этой логике, придётся признать, что любая имитирующая ИИ компьютерная программа – это функционал.

Он может быть сколь угодно сложным, но это не меняет его сути. Вчера этот функционал помогал искать нужную информацию и делать расчёты, сегодня он оболванивает публику «правдоподобными» ответами, а завтра превратится в монстра Франкенштейна, парализующего волю значительной части человечества.

Этот механизм работает очень просто. В середине 1990-х одна из индийских газет описала историю гибели деревни, в которой появился телевизор. Работа и всякая другая жизнь замерла. Как парализованные страхом перед удавом кролики, люди днями и ночами сидели перед окном в большой мир. Через некоторое время начались голод и болезни. Способные оторваться от экрана сбежали, остальные умерли.

Сегодня для многих людей, особенно молодых, роль окна в мир играет интернет с его социальными сетями, чатами и TikTok, но у них пока ещё есть подобие свободного выбора. А когда в роли удава будут выступать чат-боты с настройкой на запросы потребителя, освободиться от гипноза будет труднее. Тут впору заключить международный договор об ограниченном использовании ИИ, но это пока нереально.

Авторизуйтесь, чтобы оставлять комментарии