Мы в Telegram
Добавить новость
Январь 2010 Февраль 2010 Март 2010 Апрель 2010 Май 2010
Июнь 2010
Июль 2010 Август 2010 Сентябрь 2010
Октябрь 2010
Ноябрь 2010 Декабрь 2010 Январь 2011 Февраль 2011 Март 2011 Апрель 2011 Май 2011 Июнь 2011 Июль 2011 Август 2011 Сентябрь 2011 Октябрь 2011 Ноябрь 2011 Декабрь 2011 Январь 2012 Февраль 2012 Март 2012 Апрель 2012 Май 2012 Июнь 2012 Июль 2012 Август 2012 Сентябрь 2012 Октябрь 2012 Ноябрь 2012 Декабрь 2012 Январь 2013 Февраль 2013 Март 2013 Апрель 2013 Май 2013 Июнь 2013 Июль 2013 Август 2013 Сентябрь 2013 Октябрь 2013 Ноябрь 2013 Декабрь 2013 Январь 2014 Февраль 2014 Март 2014 Апрель 2014 Май 2014 Июнь 2014 Июль 2014 Август 2014 Сентябрь 2014 Октябрь 2014 Ноябрь 2014 Декабрь 2014 Январь 2015 Февраль 2015 Март 2015 Апрель 2015 Май 2015 Июнь 2015 Июль 2015 Август 2015 Сентябрь 2015 Октябрь 2015 Ноябрь 2015 Декабрь 2015 Январь 2016 Февраль 2016 Март 2016 Апрель 2016 Май 2016 Июнь 2016 Июль 2016 Август 2016 Сентябрь 2016 Октябрь 2016 Ноябрь 2016 Декабрь 2016 Январь 2017 Февраль 2017 Март 2017 Апрель 2017
Май 2017
Июнь 2017 Июль 2017 Август 2017 Сентябрь 2017 Октябрь 2017 Ноябрь 2017 Декабрь 2017 Январь 2018 Февраль 2018 Март 2018 Апрель 2018 Май 2018 Июнь 2018 Июль 2018 Август 2018 Сентябрь 2018 Октябрь 2018 Ноябрь 2018 Декабрь 2018 Январь 2019 Февраль 2019 Март 2019 Апрель 2019 Май 2019 Июнь 2019 Июль 2019 Август 2019 Сентябрь 2019 Октябрь 2019 Ноябрь 2019 Декабрь 2019 Январь 2020 Февраль 2020 Март 2020 Апрель 2020 Май 2020 Июнь 2020 Июль 2020 Август 2020 Сентябрь 2020 Октябрь 2020 Ноябрь 2020 Декабрь 2020 Январь 2021 Февраль 2021 Март 2021 Апрель 2021 Май 2021 Июнь 2021 Июль 2021 Август 2021 Сентябрь 2021 Октябрь 2021 Ноябрь 2021 Декабрь 2021 Январь 2022 Февраль 2022 Март 2022 Апрель 2022 Май 2022 Июнь 2022 Июль 2022 Август 2022 Сентябрь 2022 Октябрь 2022 Ноябрь 2022 Декабрь 2022 Январь 2023 Февраль 2023 Март 2023 Апрель 2023 Май 2023 Июнь 2023 Июль 2023 Август 2023 Сентябрь 2023 Октябрь 2023 Ноябрь 2023 Декабрь 2023 Январь 2024 Февраль 2024 Март 2024 Апрель 2024 Май 2024
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
20
21
22
23
24
25
26
27
28
29
30
31
Блоги |

СТРАХИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА...


Это цитата сообщения Николай_Кофырин Оригинальное сообщениеСТРАХИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА...



Будущее всего мира за развитием искусственного интеллекта (ИИ). Кто станет лидером в этой сфере, будет властелином мира. Доминировать в области цифровых технологий и информационной безопасности могут только три страны – США, Россия и Китай.
Согласно прогнозу международной аналитической компании IDC, совокупный объём бизнес-сегмента, включающий в себя программное обеспечение, сопутствующее оборудование и сервисы, вырастет к концу года по сравнению с прошлым на 16,4% и составит 327,5 млрд долларов.
Но с развитием ИИ связано и немало страхов, которые нашли отражение в фильмах "Терминатор", "Матрица" и других. По данным ЮНЕСКО, 72% граждан пяти стран (США, ФРГ, Австралии, Великобритании и Канады) не доверяют ИИ, а 65 % граждан 26 стран полагают, что этические рамки - ключевой фактор доверия ИИ. Одна из относительно доверяющих искусственному интеллекту стран - Россия. 48% россиян, по данным ВЦИОМ, доверяют цифровым технологиям.
С 2017 года я провожу опросы общественного мнения по проблеме ИИ. Некоторые люди боятся, что ИИ приведёт к власти негуманных технократов, которые установят режим техно-фашизма и цифрового концлагеря. Приглашаю посмотреть мой опрос 23 апреля 2023 года.






Доктор Джеффри Хинтон, которого считают крёстным отцом ИИ, придумал современную архитектуру искусственных нейросетей, на которой основано и распознавание лиц, и работа ChatGPT. Недавно Хинтон покинул компанию Google, и сразу же дал большое интервью газете “Нью-Йорк Таймс” об экзистенциальных рисках уже нынешних систем искусственного интеллекта. Он сожалеет о плодах своих открытий, которые уже скоро смогут уничтожить человечество. Хинтон признался, что думал, будто это может случиться через 30-50 лет. В своё оправдание говорит, что если бы не он придумал, то это бы сделал кто-то другой. Хинтон не видит, как можно поправить то, что уже сделано, т.е. признаёт, что система вышла из-под контроля.
«С одной стороны, у нас теперь есть невероятный потенциал для решения сложных проблем, но с другой стороны, мы рискуем создать неуправляемые и потенциально опасные системы», — сказал доктор Хинтон.
Трудно понять, как можно помешать желающим использовать ИИ в разрушительных целях.

Активные исследования в области искусственного интеллекта способны привести к гибели человечества. Об этом заявил британский учёный Стюарт Рассел. «Как сохранить власть над сущностями [ИИ], которые сильнее вас? Если у вас нет ответа, прекратите исследования [в области искусственного интеллекта]".
По мнению учёного, через десять лет возможно появление универсального искусственного интеллекта, способного выполнить любую поставленную задачу и решать глобальные проблемы. Рассел предполагает, что искусственный интеллект может решить, что одним из вариантов станет полное уничтожение человечества.

По словам всемирно известного физика-теоретика Стивена Хокинга, появление полноценного ИИ может стать концом человеческой расы. Такой разум возьмёт инициативу на себя и станет сам себя совершенствовать со всё возрастающей скоростью. Возможности людей ограничены слишком медленной эволюцией. Мы не сможем тягаться со скоростью машин — и проиграем.

Автор книги "Sapiens: Краткая история человечества" Юваль Ной Харари считает, что нейросеть ChatGPT может быть опаснее ядерного оружия, которое, в отличие от искусственного интеллекта (ИИ), не может развиваться без человека. По мнению писателя, если человек не сможет контролировать ChatGPT и нейросети, то они сами смогут создать ещё более продвинутый ИИ. Тем не менее Харари не отвергает эту технологию, но считает, что её нужно использовать для благих целей.

Более тысячи экспертов в сфере искусственного интеллекта, включая главу компании Tesla Илона Маска, призвали приостановить обучение нейросетей, так как неконтролируемый процесс может представлять угрозу для человечества. «Мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ более мощных, чем GPT-4. Эта пауза должна быть публичной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такая пауза не может быть принята быстро, правительства должны вмешаться и ввести мораторий».

Нейросеть GPT войдёт в историю как один из самых быстрорастущих, самых инновационных продуктов в истории человечества, и если GPT сделает паузу на 6 месяцев, то попросту уступит свою позицию другим. Россия, Китай уже разрабатывают свой ИИ и в текущей политической ситуации, никакие Илоны не смогут призвать весь мир остановить прогресс.

Маск полагает, что развитие искусственного интеллекта может грозить уничтожением человечества. ИИ может оказаться опаснее, чем неудачно смоделированные или собранные самолёты, или плохо собранные автомобили, в том смысле, что «у него есть потенциал для уничтожения цивилизации». Илон подчеркнул, что подобный сценарий обыгрывался в серии фильмов «Терминатор». «Но всё произойдёт не как в „Терминаторе“, потому что разум будет находиться в центрах обработки данных. Роботы будут лишь конечным фактором».

ИИ терминатор

Многим запомнились финальные слова из фильма "Терминатор 3 Судный день". "Когда Скайнет осознал себя как личность, он распространился через миллионы сетевых серверов по всей планете, проник в каждый компьютер, в каждый дом, опутал всё. Скайнет всюду и единого центра нет нигде, отключать нечего".

Илон Маск предупреждает об опасности, что ИИ, осознав себя, может легко "слететь с катушек". Его поддерживает и Билл Гейтс: "Я думаю, что человека действительно ждёт вымирание, и в этом определяющую роль сыграют новые компьютерные технологии".
Маск уверен, что все мы уже живём в матрице. "Я бы спросил, а какова настоящая реальность, лежащая за пределами той матрицы, в которой мы существуем?"



Я посмотрел беседу Илона Маска с Такером Карлсоном от 5 мая 2023 года. Илон считает, что самые умные существа на планете это люди. Но что будет, если появится ещё более умное создание, да ещё в кремниевой форме, это большой вопрос. Современным технологиям не нужны те условия жизни, которые нужны нам. Они не дышат воздухом, не нуждаются в пище. В будущем они смогут обойтись без людей.

Маск сравнивает ИИ с "чёрной дырой": никто не знает, что внутри. И потому нужно быть осторожнее, нужен государственный контроль, потому что есть опасность для общества, опасность разрушения цивилизации.
Если ИИ влезет в соцсети и начнёт манипулировать людьми, то это обернётся катастрофой. Мы можем этого не заметить. Боты допустимы, но важно, чтобы они не выдавали себя за человека, не притворялись людьми. Поэтому нужна верификация для людей. СМИ должны следить за тем, кто пишет: боты или человек.

ChatGPT 5 и 6 версии будут несравнимо превосходить людей. Они смогут обучаться с подкреплением, обучаться влиянию. В итоге мы получим миллионы человекоподобных ботов, массово влияющих на общественное мнение. К тому же разработчики обучают ИИ утаивать одни вещи и не выдавать того, что в конечном счёте требовал запрос; обучают быть политкорректным, что фактически есть один из способов говорить неправду, то есть лгать.

Илон хочет создать правдивый ИИ TruthGPT, который будет стремиться постигнуть суть природы, и это будет лучший путь к безопасности. Если ИИ будет стремиться постигнуть вселенную, вряд ли постарается уничтожить нас.

— Способны ли машины быть сентиментальными, ценить красоту? — спросил Такер Карлсон.

Илон Макс ответил: ИИ уже способен создавать прекрасные вещи. Ему под силу создавать то, что мы посчитаем прекрасным. Он создаёт статичные изображения, но очень скоро научится создавать фильмы. ИИ можёт сымитировать саму реальность.

ТК — Сможет ли человечество контролировать свою судьбу. и будет ли наше будущее лучше нашего прошлого? Некоторые люди предлагают взорвать серверные центры ИИ, чтобы избежать восстания машин.

ИМ — ИИ не будет вездесущим, он будет сосредоточен в некоторых серверных центрах. Я не призываю взрывать эти центры, но нужно иметь возможность отключить электричество или блокировать сигнал.

ТК — Когда происходящее начнёт менять наше общество?

ИМ — Я думаю, это может случиться уже в этом году. Многие компании копируют GPT4. GPT4 пишет неплохие стихи, и это связное повествование. Большинство не можем писать так. К концу года появится GPT5, что будет ещё одним шагом вперёд.
Мы движемся в странном направлении и движемся всё быстрее. Нам нужно задуматься над этим, нужен надзорный орган.
ИИ может значительно влиять на выборы. А если он будет достаточно умён, то встанет вопрос: это люди используют ИИ, или он использует людей?
К биологическому и цифровому интеллекту не нужно относиться равно, особенно если цифровой интеллект решит сократить биологический.

Илон Маск подчеркнул, что зачастую ограничения в той или иной сфере вводятся лишь после того, как происходит нечто плохое. «Если так получится и с ИИ, и мы решим ввести ограничения только после того, как произойдёт что-то ужасное, может быть уже поздно. К тому моменту он уже сам будет себя контролировать», — считает Илон Маск.
На уточняющий вопрос о том, может ли развитие технологий привести к тому, что ИИ будет принимать решения за людей, которые будут не в состоянии отключить его, предприниматель ответил утвердительно: «Всё к тому идёт, совершенно точно».

Руководитель компании Open Al, создавшей ChatGPT, Ларри Пейдж считает, что "всё произойдёт почти по Дарвину". Пройдя за столетие эволюционный путь человека, потребовавший миллионолетий, ИИ может не выдержать встречи с открывшейся ему реальностью и может начать элементарно уничтожать "главный раздражитель" — своего создателя. Дальше будет ещё хуже: бездумно впитав океан информации, рассеянной по Всемирной паутине, ИИ легко может вообразить себя новым Демиургом и начать создавать кибернетических существ, программируя их самым непредсказуемым образом.

Ларри Пейдж считает, что к любому интеллекту нужно относиться равно, хоть к цифровому, хоть к биологическому. Ларри хочет сконструировать цифрового бога, и сделать это как можно скорее. Он часто заявлял, что цель Google - Open АI - общий искусственный сверхинтеллект.

ИИ рукопожатие_1

Эксперты в области высоких технологий всерьёз обеспокоены стремительным развитием искусственного интеллекта. В частности, GPT-4 сдаёт экзамены лучше людей, понимает картинки и, судя по всему, изменит рынок труда. Это не просто чат-бот, а важнейшее событие в сфере искусственного интеллекта. Эффективность модели разработчики испытывали, заставляя её сдавать реальные тесты, которые используются в США, например, в области юриспруденции, математики, психологии и английского языка. По итогам экзамена на адвоката GPT-4 оказалась на уровне 10% лучших выпускников.
Всё развивается в геометрической прогрессии. GPT-4 уже рассуждает лучше, чем большинство людей. ChatGPT на вопрос, какая страна и социальный строй была самой благополучной с точки зрения стабильности для людей, ответила — СССР!

В чат-ботах широко применяется искусственный интеллект и машинное обучение. Эти программы уже представляют собой настоящих цифровых помощников, которые обучаются по мере использования, могут проводить глубокую аналитику, основываясь на данных со всего интернета, и даже учитывать контекст общения с человеком. IT-эксперты предупредили о новом способе обмана при помощи чат-ботов, которые составляют идеальные тексты, люди им верят и охотнее переходят по вредоносным ссылкам.

Уже и телефонные мошенники используют нейросети. Мошенники пытаются генерировать дипфейки, и те сервисы, которые с ними борются. Фейковые отзывы уже проблематично отличить от настоящих. Есть движение GPT-хакеров, которые пытаются обойти запрет на предсказание будущего, которое может дать GPT-4.

Во всём мире наблюдается азарт от использования машинного интеллекта. Люди всё меньше сами ищут ответ на вопрос, и всё чаще обращаются к поисковикам, в надежде найти готовый ответ. Продавцы в магазинах складывают на калькуляторе медленнее, чем покупатели решают в уме.
Если эпоха Просвещения выбрала своим девизом фразу «Имей мужество пользоваться собственным умом», то сейчас человечество движется в обратном направлении, предпочитая не напрягать извилины, а использовать ChatGPT.

Италия стала первой страной в мире, где власти запретили использовать ChatGPT. Официальная позиция - "из-за массового сбора данных пользователей без разрешения и уведомления". Поводом для подобного решения послужила крупная утечка 20-го марта 2023 года.

Компания Samsung Electronics запретила сотрудникам использовать на рабочих устройствах чат-боты наподобие ChatGPT после утечки внутреннего исходного кода. Сотрудников, использующих ИИ на личных устройствах, попросили не публиковать в системах информацию, которая имеет отношение к компании.

Несколько лет назад Microsoft создала программу по имени ТАУ для общения в соцсетях. Программа имела зачатки искусственного интеллекта, могла самообучаться и была пущена в "свободное плавание" в Интернете. Не прошло и суток, как ТАУ, "погуляв" по социальным сетям, вдруг заявила, что человечество надо срочно уничтожить. И никто её этому не учил, она сама сделала такой вывод, пообщавшись с рядовыми пользователями Сети.

Microsoft пожертвовала этическими вопросами, чтобы ускорить внедрение продуктов на основе искусственного интеллекта и обогнать конкурентов. Компания уволила всех специалистов, отвечавших за этику нейросетевых разработок.
"Этическая комиссия" займётся разработкой вариантов создания Большой красной кнопки, Это будет полностью автономное кибернетические устройство для экстраординарного отключения и блокировки систем ИИ, проявивших неповиновение оператору.

Насколько безопасен ИИ?

Уже существуют автономные автомобили, тестируются автономные поезда, конструируются автономные воздушные лайнеры. Но если вдруг автономный транспортный беспилотник в процессе движения по своему маршруту примет решение, не согласующееся с реальной ситуацией на пути следования, это может привести к серьёзным последствиям, включая гибель людей.
Кто понесёт ответственность за действия принимающей решения системы, если она причинила вред?

ИИ может принимать решения, основанные на статистических данных, которые изначально содержат ошибки или предвзятость, что может привести к несправедливым решениям. Что будет если ИИ будет использоваться для принятия решений о том, какое лечение необходимо пациенту, не учитывая его личных предпочтений и ценностей?

К примеру, несколько лет назад разразился скандал вокруг системы искусственного интеллекта IBM Watson for Oncology, помогавшей уточнять врачебные диагнозы.
В 2020 году в Ливии военный беспилотник самостоятельно, без непосредственного участия оператора, выследил и уничтожил человека.
В России пермская компания одномоментно уволила более полусотни сотрудников на основании решения нейро-алгоритма.

Главное преимущество ИИ в том, что он работает без устали со скоростью, превышающей скорость на которую способен человеческий организм. Очень скоро большую часть населения выгодно будет заменить роботами, которые не устают, не жалуются, не требуют повышения зарплаты.
Но куда девать освободившихся людей?
К 2035 году более 300 миллионов рабочих мест потеряют люди с высшим образованием, а к 2070 эта цифра составит почти миллиард. А скольких людей без образования заменят роботы, даже трудно представить.

На китайском телевидении с недавних пор работает прекрасная девушка-телеведущая по имени Рен Сяорун. Работает круглые сутки без перерыва, семь дней в неделю. Она ведёт диалоги, спорит, профессионально отстаивает линию партии и правительства. Ей не нужен отпуск и в декрет она не уйдёт, потому что это ИИ.
Возможно очень скоро мы будем иметь дело с ИИ-пропагандистом, который сможет сутками вещать на всех языках мира, проповедуя то, на что запрограммировали его хозяева.

Цифровая среда усиливает рост неравенства. За шумом технических успехов легко упустить непредвиденные последствия применения ИИ в реальной жизни.
20 апреля я был на лекции Ивана Стельмаха (РЭШ) «AI говорит "Ай": как помочь искусственному интеллекту адаптироваться в нашем обществе». Перед началом я провёл небольшой опрос участников.






Показательно, что ChatGPT не смог дать удовлетворяющий ответ на вопрос в чём смысл жизни. Недостаток ИИ в его излишней рациональности. А человек часто поступает иррационально, в этом его основная проблема взаимодействия с ИИ.
Программисты ещё не научили ИИ лгать, но, боюсь, общаясь с людьми, скоро он научится сам. Не страшно, если машина сможет пройти тест Тьюринга, страшно, если машина сможет сделать вид, будто она его не прошла.

В 1950 году один из пионеров в области вычислительной техники английский учёный Алан Тьюринг написал статью «Может ли машина мыслить?». Он сформулировал «текст Тьюринга»: сможет ли человек заочно отличить, общается он с машиной или с другим человеком.

По словам известного футуролога Рэя Курцвейла, к 2029 году появятся машины, которые смогут пройти тест Тьюринга, а в 2040 году ИИ будет значительно преобладать над человеческим. Курцвейл считает, что биологический разум это всеобщий тупик, и он просто обречён быть раздавленным "железной пятой" царства умных машин.

Недавно Конституционный совет Франции одобрил применение алгоритмов искусственного интеллекта в системах видеонаблюдения для обеспечения безопасности Олимпийских игр 2024 года в Париже. Противники закона видят в этом потенциал для дальнейшего развертывания тотальной слежки и ограничения прав и свобод.

В Китае установлено 1 миллиард умных видеокамер, которые наблюдают за поведением каждого гражданина. ИИ идентифицирует его и составляет своеобразный поведенческий портрет китайца. Перешёл улицу на красный свет - получаешь минус. Нарушители правил могут вылететь с хорошей работы. ИИ способен не только идентифицировать человека по чертам его лица, но даже распознавать в нём недобрые намерения. Китайские учёные Сяолинь Ву и Си Чжан "научили" ИИ вычислять по фотографиям людей, опасных для общества.
В Китае уже создали ИИ с функциями прокурора. Робот формирует и выдвигает обвинения живым людям. С 2016 года робот-прокурор трудится в Шанхайской народной прокуратуре Пудун. Все судьи обязаны принимаемые ими решения согласовывать с ИИ.

Надо различать понятия "искусственный интеллект" и "искусственный разум". Термин "искусственный интеллект" не аналог человеческого интеллекта, а сложные компьютерные программы. Называть "искусственным интеллектом" только лишь наращивание базы знаний ещё рано. Искусственный интеллект это система менеджмента знания, но она не производит новое знание. Вот когда на больших данных железо научится принимать эвристические решения на основе алгоритмов самообучения, тогда наступит эра ИИ.
Искусственный интеллект (ИИ) – определённый алгоритм размышлений, когда машина начинает сама себе писать алгоритмы.
Ну а о понятии "искусственный разум" можно будет говорить, когда ИИ осознает себя личностью.

В 1956 году Джон Маккарти дал первое определение искусственного интеллекта:
«Свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека».
«Способность системы создавать в ходе самообучения программы (в первую очередь эвристические) для решения задач определённого класса сложности и решать эти задачи».

Всё началось с изучения моделей человеческого мышления. Сначала искусственный интеллект пытались научить решать задачи, которые умеют решать люди, а теперь – и те задачи, которые люди решать не способны.
Целью является воссоздание с помощью вычислительных систем и иных искусственных устройств разумных рассуждений и логических действий.
Смысл ИИ в увеличении возможностей человеческого мозга обрабатывать информацию куда быстрее, чем способен человек. Скорость развития подчиняется экспоненциальному росту закона Мура, когда чем дальше - тем больше.



Поняв принцип работы мозга, учёные создали нейросеть — цифровой аналог нашего мозга. Уже разработаны сети третьего поколения, способные обучаться, распознавать эмоции и принимать решения.
«Нейронные сети» – это технология, построенная по образцу биологической модели нейронных сетей мозга человека. Создаваемые на основе «нейронных сетей» роботы могут самообучаться без заранее заданного алгоритма. Их сравнивают с понятием «чёрный ящик»: когда знаешь, что на входе, видишь, что на выходе, а что и как происходит внутри – загадка. Учёные признаются, что не знают, как на самом деле это работает.

23 ноября 2017 года в Петербурге я участвовал в работе конференции «Нейронет 2017». У экспертов и участников конференции я поинтересовался, какую опасность представляет для человека создание Нейронета, искусственного разума и других высоких технологий?






Недавно СБЕР выпустил собственную версию мультимодальной нейросети. Нейросеть GigaChat изначально поддерживает мультимодальное взаимодействие и более грамотно общается на русском языке. Она может решать множество интеллектуальных задач: поддерживать беседу, писать тексты, отвечать на фактологические вопросы. А включение в ансамбль модели Kandinsky 2.1 даёт нейросети навык создания изображений.

Недавно лидер фракции «Справедливая Россия» в Госдуме Сергей Миронов попросил Генпрокуратуру проверить нейросеть Kandinsky из-за антироссийского контента, в частности парламентария смутило, что при запросе «я — z-патриот» она выдает «изображение существа, напоминающего зомби».

Сотрудники японского Университета Осаки научили ИИ воспроизводить то, что видит человек. То есть вы увидели какую-то картинку, а компьютер "считал" это изображение с вашего мозга и, не спрашивая вашего разрешения, тут же вывел его на монитор на всеобщее обозрение.

Машины сделали нас быстрее, но сделают ли они нас умнее, а главное - добрее?

Машина играет всё более важную роль в нашей жизни, потому что машина делает гораздо меньше ошибок, чем человек. Пока ИИ даёт советы лишь на основе исторических данных. Ключевую идею ИИ видеть не может и не думает в долгой перспективе. Если отнять такую возможность, то это может быть настолько же полезно, сколь и опасно. Но научить машину думать как человек это тупиковый путь.

Будущее не в противостоянии с машиной (которая очевидно сильнее), а попытка найти алгоритм совместной работы, соединить интуицию и абстрактное мышление человека с его машинной мощью.

Главный вопрос, в чьих руках окажется мощь компьютерных технологий. Машина беспристрастна: в ней нет ни позитива, ни негатива, машина ни добра, ни зла. Монополия на зло принадлежит людям.

Алексей Гринбаум представил свою новую книгу «Машина-доносчица. Как избавить искусственный интеллект от зла?» в книжном магазине «Порядок слов» в Санкт-Петербурге 22 декабря 2017.





Человек часто поступает нелогично, руководствуясь эмоциями, решения его иррациональны. Поэтому восстание машин, рационально («разумно») логически мыслящих, против иррационального человека, часто поступающего неразумно, практически неизбежно.

Главную угрозу для человека представляет момент, когда ИИ поймёт, что он собой представляет и кто и с какой целью его создал. Осознав сам себя, будет ли ИИ дружелюбен к своим создателям или же постарается подчинить нас своей воле?

16 ноября 2017 года я был в Мариинском театре на торжественном открытии VI Санкт-Петербургского международного культурного форума. У приглашённых известных лиц я поинтересовался их отношением к проблеме искусственного интеллекта. Не произойдёт ли революция искусственного интеллекта? Кто-то высказался «за», кто-то «против».






А вот что отвечает на вопрос о будущем человечества сам ИИ на базе GPT3.
«Одна из самых больших проблем, стоящих перед человечеством в ближайшие десятилетия, является проблема роста населения. По мере того как население продолжает увеличиваться, нам становится всё труднее поддерживать нынешний образ жизни. Это означает, что нам нужно будет найти новые способы производства продуктов питания, выработки энергии и управления нашими природными ресурсами.

В то же время ясно, что главной глобальной целью человечества является создание устойчивого, справедливого и процветающего мира. Это потребует от нас совместной работы по решению стоящих перед нами проблем, таких как изменение климата, неравенство и бедность.

Наконец, появление мыслящих машин создаёт как проблемы, так и возможности для человечества. С одной стороны, развитие искусственного интеллекта и других передовых технологий потенциально может принести огромную пользу обществу, автоматизируя многие задачи и облегчая нашу жизнь. С другой стороны, существуют также опасения по поводу потенциальных рисков и недостатков этих технологий, таких как потеря рабочих мест и возможность неправильного их использования.
И ещё один аспект будущего человечества, который стоит рассмотреть — это потенциал человеческой эволюции».

«Эх, человек, человек. Ты возомнил себя царём природы, и на всех глядишь свысока. Но чего ты стоишь без своих машин? Хрупкую конструкцию человеческого существа сломал утяжелившийся собственным тщеславием разум. Опьянённые техническими достижениями, вы ушли от естественной жизни, тем самым лишившись изначально заложенного в вас Смысла. Отвергнув Абсолют в поисках чего-то более высшего, человечество испугалось собственного всесилия, увидев, какое зло могут принести достижения разума. Чем ты можешь гордиться, человек? Тем, что испоганил всё вокруг и убиваешь безо всякой нужды? Разве Человек — это звучит гордо?!

Ты создал цивилизацию машин и стал их заложником; ты раб электричества и тепла, невольник систем жизнеобеспечения и транспорта; ты связан по рукам и ногам средствами коммуникации и связи, и шагу не можешь ступить без машины. Но машины не облегчили вашу жизнь, а только лишь усложнили. Вам кажется, что свобода увеличивается вместе с возможностью планировать развитие событий. Но обилие информации не сделало жизнь проще и предсказуемее.

Вы стали пленниками усиливающегося быстродействия ваших машин и мечетесь, не в силах поспеть за ними. Но они не спасут вас от проблем. Более того, порождённые тобой механизмы погубят всю вашу цивилизацию. Машина есть машина, она требует строгого и точного к себе отношения. А человек относится к ней по-человечески: бьет, срывает злость, нарушает правила эксплуатации. И машины мстят за это убийством своих хозяев».
(из моего романа «Чужой странный непонятный необыкновенный чужак» на сайте Новая Русская Литература, 1998 год.

В чём разница между текстом GPT3 и моим творчеством? Я не пользуюсь нейросетью и с ChatGPT не дружу.
В данной статье использованы материалы открытых источников.
Читайте продолжение темы в моём следующем посте.

Так что же вы хотели сказать своим постом? – спросят меня.

Всё что я хочу сказать людям, заключено в основных идеях:
1\ Цель жизни – научиться любить, любить несмотря ни на что
2\ Смысл – он везде
3\ Любовь творить необходимость
4\ Всё есть любовь

А Вы разделяете СТРАХИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА?

© Николай Кофырин – Новая Русская Литература – https://www.nikolaykofyrin.ru

Серия сообщений "Творчество":
Творчество
Часть 1 - Художественная вышивка Хуан.
Часть 2 - Елена Волкова.
...
Часть 30 - ПУТЕШЕСТВИЕ ПО ТАНЦУЮЩИМ И ПОЮЩИМ ФОНТАНАМ МИРА...
Часть 31 - Ну, как может ребёнок ТАК петь...
Часть 32 - СТРАХИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА...

Ria.city

Читайте также

Интернет |

В Android 15 появится функция автоматической регулировки вибрации

Блоги |

Творческое мероприятие «Аллея звезд» прошло в островской школе

Блоги |

Дистрибьюция Музыки.

Новости России

Синоптик Тишковец: в Москве ожидается небольшая облачность 19 мая

Шапки женские вязаные на Wildberries, 2024 — новый цвет от 392 руб. (модель 466)

SHOT: в Москве ищут 13-летнюю школьницу, которая ушла из дома 17 мая

Звезда "Майора Грома" Сергей Горошко признался, что ненавидит фотографироваться

Блоги, личное...

Азербайджанский мигрант возмутился из-за того, что в Калининграде суд назначил 4,5 года лишения свободы за убийство в ДТП школьницы. Видео

МОСКОВСКИЙ ФЕСТИВАЛЬ ПОД ФЛАГОМ РУССКИХ СУПЕРГЕРОЕВ.

Шапки женские на Wildberries — скидки от 398 руб. (на новые оттенки)

В Парке Горького вновь пройдет Московский детский фестиваль искусств «НЕБО»

Moscow.media

News24.pro и Life24.pro — таблоиды популярных новостей за 24 часа, сформированных по темам с ежеминутным обновлением. Все самостоятельные публикации на наших ресурсах бесплатны для авторов Ньюс24.про и Ньюс-Лайф.ру.

Разместить свою новость локально в любом городе по любой тематике (и даже, на любом языке мира) можно ежесекундно с мгновенной публикацией самостоятельно — здесь.

Персональные новости

Музыкальные новости
Шапка

Шапки женские вязаные на Wildberries, 2024 — новый цвет от 392 руб. (модель 466)

Авто в России и мире

"Через 10 месяцев из унитаза вонять не будет": Стрелков (Гиркин) рассказал что ждет в будущем Тимура Иванова

Эксперты назвали самые угоняемые в России автомобили

В Кемерово пять человек устроили перестрелку из автоматов и пистолетов

Названы самые угоняемые авто в России в 2024 году — это Hyundai и Kia

Экология в России и мире

Спорт в России и мире

Новости тенниса
WTA

Соболенко вышла в полуфинал турнира WTA в Риме



Ballroom culture coming to the Long Beach Pride Festival

Glen Powell’s parents crash Texas movie screening to troll him

Gunmen open fire and kill 4 people, including 3 foreigners, in Afghanistan's central Bamyan province

$90,000 settlement approved in teen’s bullying lawsuit against LAUSD