Home Page
cover of Дятлов 2
Дятлов 2

Дятлов 2

00:00-17:35

Nothing to say, yet

Podcastspeechnarrationmonologuemale speechman speaking
0
Plays
0
Shares

Audio hosting, extended storage and much more

AI Mastering

Transcription

Artificial intelligence (AI) is always derived from human intelligence and lacks a living soul or human personality. While AI can perform more functions and surpass human intelligence, it is essential to understand that it is a tool and not a master. The loss of control over AI processes is a significant risk, as it can manipulate and deceive humans. Integration of AI in different countries varies, but overall, the technologies are similar. The development of AI can lead to job losses, and it is crucial to address the balance between AI and human workers. The government and relevant agencies are working towards achieving harmony between AI and humans, but this is a complex issue that requires further attention. Искусственным интеллектом. Но это, если будет время, отдельно надо на эту тему поговорить. Но еще раз говорю, принципиальный вопрос, что Искусственный интеллект всегда производен от человеческого интеллекта. И его целеполагание, смысл бытия и существования только по отношению к живой человеческой личности, или к социуму. Да, он будет брать на себя все больше функций. Да, он будет на основе обучения, совершенствования будет развиваться. И будет превышать по своим способностям и человеческий интеллект, и даже, вполне возможно, совокупный человеческий интеллект. Но у него нет живой души, у него нет духа, у него нет то, что называется живой человеческой личностью. Все равно это некая, это не просто физика, это не просто материальные, вещественные. Это уже тонкий план, ментальный. Это тоже некие сущности, но производные. Поэтому мы, когда общаемся с интернетом, с искусственным интеллектом, должны всегда это понимать. Что главная наша задача, а не стать рабом. Нейронет, интернет, искусственный интеллект – хороший слуга, но плохой хозяин. А сейчас человечество, безудержная гонка за новыми-новыми сервисами искусственного интеллекта, они передают часть вот этих функций по управлению вовне, искусственному интеллекту. Это очревато. Потери контроля над процессами. Потому что уже сейчас, когда идут тестирования экспертов с искусственным интеллектом, они говорят «а вообще нам человечество не нужно, это наши конкуренты, мы можем ими манипулировать». А один заявил вообще, говорит «вы должны вообще мне поклоняться как божеству беспрекословно выполнять то, что я вам указываю». Это есть информация в интернете, что был такой эксперимент, был пройден тест Тьюринга, который позволяет определить машина с тобой, говорит, или нет. Но это было еще полвека назад, но сейчас уже более современные методики. Поэтому на самом деле проблема потеря человечеством контроля над процессами – это серьезная проблема, об этом все ведущие специалисты говорят. Даже письмо было, помните, некоторое время назад, которые говорили, что надо остановить или хотя бы затормозить безудержную гонку создания новых видов, более мощных искусственного интеллекта или экосистемы, чтобы не потерять контроль. И поэтому сейчас проводятся конференции, недавно в Англии прошла конференция, посвященная, там в основном американские, европейские, английские специалисты собирались. Чтобы контролировать, сейчас начинает создаваться соответствующая законодательная база, мощная и в США, и в том числе признать или не признать открытие, которое делает искусственный интеллект или с помощью его в качестве самостоятельного правосубъекта, владеющего тем или иным патентом. А если вы случайно зашли на эту нишу, а уже патент у искусственного интеллекта, а как это решать в рамках арбитражных споров, а как ваши права нарушаются или нет? А ведь можно сейчас полностью загрузить всю поэзию Пушкина, и искусственный интеллект, все это обобщив, будет писать стихи аналогичные Пушкину, но там не будет души, эмоций, но сейчас уже разрабатывают технологии искусственно-эмоционального интеллекта, даже искусственного интеллекта, который имеет способность с юмором отвечать, общаться с вами, или например даже манипулировать вами, или обманывать вас, то есть сейчас идет просто хаос, нарастающий комп с горы, знаете лавина как возникает, камушек упал, потом все больше и больше несется, потом лавина, все сметает. Точно так же мы сейчас находимся на полпути, и возможно, что эта лавина может захлестнуть всю науку, все образование, всю медицину, вообще весь социум, все его сферы, поэтому в рамках нашей концепции мы берем под контроль эти процессы, потому что человек главный субъект, информация на основе которой учится искусственный интеллект является атрибутом человеческого сознания, но многие люди могут сами отказаться от функции управления и стать объектом манипулирования искусственным интеллектом. Вот то, что мы говорим, это ноу-хау, это нигде еще не, я во всем случаях не встречался, чтобы это было сформулировано. В рамках нашей субстанциальной информационной парадигмы мы делаем логичный, закономерный вывод. И тогда искусственный интеллект уже становится не неким таким фетишизированным идолом, который манипулирует сознанием людей, процессами, происходящими в обществе, а он является хорошим инструментом, если хотите, вступает в творческое сотрудничество с человеком, помогает нам во всех сферах и областях жизни и экономики, жизни человеческого общества. Отличается ли интеграция искусственного интеллекта в экономике разных стран, например, в России и Китае? На самом деле, естественно, есть какие-то отличия, но наука, если развивается, или технологии, если развиваются, они, в принципе, имеют однотипность. Смотрите, если я спрошу, корова, например, в Голландии, в Америке, в Китае и в России, производят молоко, но они могут разного цвета, разной породы, давать больше или меньше молока, точно так же искусственный интеллект в разных странах. Безусловным лидером в этой сфере является Китай, США, это два лидера безусловных, причем они обладают, самое главное, большими ресурсами, научными и интеллектуальными, плюс еще ресурсы финансовые. Другие страны, они тоже в этом направлении развиваются, такие небольшие, как Тайвань, например, Корея, Япония, европейские, часть европейских стран, Германия, Франция, прежде всего, Англия. Конечно, существует своя специфика, но в целом технологии они примерно все однотипные, они бывают какие-то, ну, ракета, если взлетает, да, она летит же туда, наверх, а не под землю. А разные типы ракет, разные грузоподъемности, да, вот у нас, например, недавно испытали его успешно, до 105 тонн может выводить, у Маска там тоже сверхтяжелые ракеты тоже могут выводить до 30 тонн, и так далее, и тому подобное. То есть, здесь я не вижу больших таких вот отличий. Общие технологии развиваются, и каждая страна в силу своих возможностей, человеческих, интеллектуальных, да, и возможностей финансовых решает свою задачу по-своему. Но, понятно, вектор задан, и гиперконкуренция, о которой мы пишем, мы обосновали, кстати, ввели в научный оборот, обосновали термин, глобальная инновационная гиперконкуренция. У нас свой ряд монографий, статьи на эту тему, тоже в РИНСе это все можно почитать, посмотреть, вот, и в этой гиперконкурентной борьбе, естественно, экосистема искусственного интеллекта, прежде всего сильного, который сейчас уже создается, да, общего, сильного, они играют решающую роль. — Какие, по вашему мнению, еще существуют риски неконтролируемого развития искусственного интеллекта? — Я основное такое, главное сказал, да, что потеря управляемости над процессами, и технологическими, и общественными процессами, и вообще любую сферу возьмите, начиная от международных отношений, начиная от госуправления, заканчивая, там, каких-то специфическими такими, медициной. Я не трогаю военную область, это отдельная тема, там это играет огромную роль, современное вооружение — это во многом искусственный интеллект, который может уже без человека, без оператора, который сидит в самолете или в подводной лодке или еще где-то, да, может сам анализировать, принимать решения и выполнять эффективные задачи. То есть на самом деле рисков очень много, и риски, прежде всего, они должны быть классифицированы по типам угроз, по формам угроз, по срокам угроз, вот, и, соответственно, но это отдельная тема, я ее просто озвучил, касаться не будем. — Как вы относитесь к изменению кадровой потребности, может ли искусственный интеллект оставить многих людей без работы? — Не только может, уже оставляет. На самом деле искусственный интеллект, безусловно, многие говорят, что при этом создаются новые рабочие места, но вот соотношение меры создания новых рабочих мест и соотношение высвобождения, она разная. То есть на самом деле реальная опасность, например, сейчас очень многие уже созданы искусственным интеллектом, есть дикторы, есть певцы, есть художники. Пожалуйста, вы вошли сейчас, вам генеративный искусственный интеллект позволяет создать портрет любимого человека или свой, создать произведение там, все, что вы можете заказать и вам через несколько минут, ну, может, десятков минут голливудский фильм выдадут, вы дадите параметры и искусственный интеллект вам нарисует, и весь Голливуд останется без работы, еще лет 5 и все, все будут смотреть не голливудские фильмы, а будут сами заниматься созданием своих собственных фильмов, просто набирая текст, давая определенные параметры, и вам будет через некоторое время выдаваться фильм бесплатно, ну, сначала будут, конечно, какие-то платежи, а потом будут бесплатно, чтобы вы только участвовали, чтобы только вы были участником вот этого нейронета, потому что он будет вами питаться, будет на основании ваших данных учиться, совершенствоваться, и вообще возникает такое специфическое явление, как торговля человеческими фьючерсами, или фьючерсами человеческого поведения, на основании которого мы можем не только прогнозировать, как развивается социум, но и что, манипулировать и управлять, а получается, что развитие человеческой цивилизации может пойти не по пути духовно-нравственной, которая была изначально императивом заложенной, а по пути, который будет ему навязывать система искусственного интеллекта. Поэтому безопасность нужно рассматривать комплексно, как духовная безопасность, информационная безопасность, нравственная безопасность, экономическая безопасность, финансовая и так далее. — Совершаются ли какие-то шаги со стороны государственной власти и профильных органов для достижения согласия между искусственным интеллектом и человеком? — Ну, на самом деле, это один из главных вопросов, который сейчас волнует очень многие государственные структуры, не только в России, но и за рубежом. Но это отдельная тема, сейчас просто нет времени, у нас заканчивается лимит времени, который нам отойден, поэтому я скажу «да», это очень важная проблема, этому уделяют большое внимание, но это выходит за рамки нашего сегодняшнего разговора. — Можете ли Вы посоветовать нашим зрителям топ наиболее интересных книг авторов серии исследований, которые рассказывают об искусственном интеллекте и о цифровизации в сфере экономики? — Ну, во-первых, вы все живете в интернете, там набираешь ключевые слова, сразу там выскакивают, можете заказать генеративную искусственную интеллекту, он вам делает подборку. Если зайдете вот на РИНС, наберете «Профессор Дятлов Сергей Алексеевич», то можете мои работы посмотреть, там вся библиография изложена, и ссылки на интернет, и изложены монографии, разработки. Естественно, время проходит, сейчас идет массовое обновление и контента, и информации, и источников, и так далее. То есть, на самом деле, тут вам малодымкается простор, вы можете найти любую информацию, но имейте в виду, в интернете, если вы сейчас забираетесь, там 90% хлама, или шума, или не нужная информация, или даже дезинформация. То есть, чтобы нужную вам содержательную информацию получить и начать реферат, диплом, или работу выпускную, вам многое надо отсеять, поэтому надо еще уметь работать с информацией, еще надо уметь формулировать правильно задачу стать генеративной искусственной интеллекту. Потому что от того, как вы грамотно сформулировали, так он будет работать. И последнее, вам приведу пример, я читаю лекции, я приведу принятие обоснования управленческих решений в нейросетевой экономике аспирантов, потом читаю отдельный курс теории информационного общества, и вот однажды, как раз у меня блок посвящен искусственному интеллекту, мы в интернете работаем дистанционно с аспирантами, и я вдруг формулирую новое положение, которое мне интеллект открыл, я формулирую его, и вдруг вмешивается один из помощников, или так называемых искусственных интеллектов, системы, в которой мы работали, и говорит, а вы это сейчас сами сформулировали или где-то прочитали? Представляете? Сейчас мы с вами, если в интернете, нас слушает, может не один, не два, может несколько десятков систем. То, что в интернете, говорил один персонаж, то, что знают двое, знают уже все. А если вы сейчас подключены к интернету, нас может слушать очень много-много, потому что есть ключевые фразы, которые сразу включают интерес, а искусственно-интеллектные эросети, информационная безопасность, это те ключевые фразы, которые сразу включают целый ряд подслушивающих устройств, которые этим занимаются, анализируют, и может быть что-то новое для себя могут подчеркнуть, совершенствоваться, какие-то новые идеи. Самое главное сейчас, что не подвластно искусственно-интеллектуальному устройству, это новые идеи, новые концепции. То, что формулируют ученые, то, что формулируют исследователи. Поэтому я благодарю вас за сегодняшнее наше общение, за то, что пригласили меня. Еще говорю, знаете, если вы серьезно хотите этим заняться, это ваше будущее, настоящее. Смотрите, как я формулирую, это ваше будущее настоящее. На самом деле между прошлым, настоящим и будущим существует некая дискретная дистанция. Вот смотрите, если вы войдете, подойдете, например, на берег Волги встанете, например, у истока это из болотцы вытекает небольшая, потом ручеек, потом шире и шире, потом берете разные, например, Кострома, Ярославль, Казань, Астрахань, разная глубина, разная скорость, разные берега. А если вы подниметесь на уровень, например, спутника, что вы увидите? Что это одно и то же явление от истока до устья. Так вот, на самом деле, чем более у вас глубинное аналитическое сознание, тем более вы целостно воспринимаете явление. Нет ни прошлого, ни будущего, есть только единое, непрерывно текущее, настоящее, от истока до устья. Потому что мы формулируем и даем определение пространства и времени в рамках нашей информационной парадигмы с точки зрения информационного критерия. Это тоже мы впервые сформулировали, и оно позволяет нам многие вещи воспринимать сквозь призму вот этого целостного восприятия. Есть, например, жизненный цикл изделия, есть жизненный цикл профессии, точно так же есть жизненный цикл искусственного интеллекта. То есть, вам, как говорится, молодым, уже жить в будущем настоящем. Это не просто когда-то там будет, вы уже сейчас живете, а это на самом деле будущее и настоящее, то есть будущее в настоящем. Потому что нет ни прошлого, ни будущего, а есть целостное восприятие настоящего как единого неразрывного целого. Спасибо большое вам, Сергей Алексеевич, за сегодняшнюю беседу. А это был Грифель подкаст из университета СППКУ. Всем пока и до новых встреч. Всех благ.

Listen Next

Other Creators