Мы в Telegram
Добавить новость
Январь 2010 Февраль 2010 Март 2010 Апрель 2010 Май 2010
Июнь 2010
Июль 2010 Август 2010 Сентябрь 2010
Октябрь 2010
Ноябрь 2010 Декабрь 2010 Январь 2011 Февраль 2011 Март 2011 Апрель 2011 Май 2011 Июнь 2011 Июль 2011 Август 2011 Сентябрь 2011 Октябрь 2011 Ноябрь 2011 Декабрь 2011 Январь 2012 Февраль 2012 Март 2012 Апрель 2012 Май 2012 Июнь 2012 Июль 2012 Август 2012 Сентябрь 2012 Октябрь 2012 Ноябрь 2012 Декабрь 2012 Январь 2013 Февраль 2013 Март 2013 Апрель 2013 Май 2013 Июнь 2013 Июль 2013 Август 2013 Сентябрь 2013 Октябрь 2013 Ноябрь 2013 Декабрь 2013 Январь 2014 Февраль 2014 Март 2014 Апрель 2014 Май 2014 Июнь 2014 Июль 2014 Август 2014 Сентябрь 2014 Октябрь 2014 Ноябрь 2014 Декабрь 2014 Январь 2015 Февраль 2015 Март 2015 Апрель 2015 Май 2015 Июнь 2015 Июль 2015 Август 2015 Сентябрь 2015 Октябрь 2015 Ноябрь 2015 Декабрь 2015 Январь 2016 Февраль 2016 Март 2016 Апрель 2016 Май 2016 Июнь 2016 Июль 2016 Август 2016 Сентябрь 2016 Октябрь 2016 Ноябрь 2016 Декабрь 2016 Январь 2017 Февраль 2017 Март 2017 Апрель 2017
Май 2017
Июнь 2017
Июль 2017
Август 2017 Сентябрь 2017 Октябрь 2017 Ноябрь 2017 Декабрь 2017 Январь 2018 Февраль 2018 Март 2018 Апрель 2018 Май 2018 Июнь 2018 Июль 2018 Август 2018 Сентябрь 2018 Октябрь 2018 Ноябрь 2018 Декабрь 2018 Январь 2019 Февраль 2019 Март 2019 Апрель 2019 Май 2019 Июнь 2019 Июль 2019 Август 2019 Сентябрь 2019 Октябрь 2019 Ноябрь 2019 Декабрь 2019 Январь 2020 Февраль 2020 Март 2020 Апрель 2020 Май 2020 Июнь 2020 Июль 2020 Август 2020 Сентябрь 2020 Октябрь 2020 Ноябрь 2020 Декабрь 2020 Январь 2021 Февраль 2021 Март 2021 Апрель 2021 Май 2021 Июнь 2021 Июль 2021 Август 2021 Сентябрь 2021 Октябрь 2021 Ноябрь 2021 Декабрь 2021 Январь 2022 Февраль 2022 Март 2022 Апрель 2022 Май 2022 Июнь 2022 Июль 2022 Август 2022 Сентябрь 2022 Октябрь 2022 Ноябрь 2022 Декабрь 2022 Январь 2023 Февраль 2023 Март 2023 Апрель 2023 Май 2023 Июнь 2023 Июль 2023 Август 2023 Сентябрь 2023 Октябрь 2023 Ноябрь 2023 Декабрь 2023 Январь 2024 Февраль 2024 Март 2024 Апрель 2024 Май 2024
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
Интернет |

Эксперт рассказал о том, есть ли опасность от ИИ

Идея «восстания машин» не нова и появляется в искусстве с заметной регулярностью. Эксперт рассказывает о том, на каком этапе находится человечество и есть ли опасность нашему существованию от ИИ

Искусственный интеллект (ИИ) сделал большой прорыв. Одним из громких достижений стало создание генеративной сети ChatGPT, которая ведёт себя как настоящий человек и обладает обширными знаниями в разных областях. Эти знания могут быть использованы как для блага, так и для нанесения вреда. Однако визионеры, включая Илона Маска, основателя Tesla и SpaceX, бьют тревогу, опасаясь, что в гонке за самую продвинутую генеративную сеть человечество может оказаться на грани гибели.

Сразу после запуска ChatGPT продемонстрировал удивительные способности. Студент РГГУ, Александр Ждан, за 23 часа написал свою дипломную работу с помощью ChatGPT и успешно её защитил, получив «удовлетворительно». Он поделился своим успехом в социальных сетях, что вызвало скандал. История обсуждалась на разных уровнях, от педагогического сообщества до депутатов Госдумы. В итоге Ждан получил свой диплом без каких-либо наказаний со стороны университета.

Хакеры быстро научились создавать вредоносное программное обеспечение с помощью ChatGPT. Они использовали чат-бота для разработки и запуска вредоносных программ, предназначенных для удалённого взлома данных. Антивирусные системы не смогли обнаружить такие программы. Специалист по безопасности, Аарон Малгр, объяснял, что ChatGPT отказывается создавать вредоносное ПО по этическим соображениям. Однако хакеры нашли обходной путь, предложив боту сгенерировать фрагменты вредоносного кода, которые они затем собрали вместе вручную. Создание такой программы заняло несколько часов, в то время как обычным программистам требовалось бы 5-10 недель.

Специалисты по кибербезопасности из Check Point Research сообщили, что участники хакерских форумов активно используют ChatGPT для написания вредоносного кода и фишинговых электронных писем. Исследование BlackBerry Limited показало, что 51% IT-экспертов считают, что в ближайшем будущем произойдёт успешная кибератака с использованием ChatGPT, а 71% полагают, что государства уже злонамеренно используют эти технологии против других государств. Тем не менее, эксперты по кибербезопасности подчёркивают, что не важно, кто создал вредоносную программу — человек или ChatGPT, их главная задача состоит в обнаружении и предотвращении таких угроз.

Growtika

Компания OpenAI, чьим основным инвестором является Microsoft, решила бросить вызов Google, интегрировав своего чат-бота ChatGPT в поисковую систему Bing. Это привлекло внимание пользователей, и аудитория Bing увеличилась на 15,8%, в то время как обращения к Google сократились на 1%. Samsung также рассматривает возможность замены предустановленного поиска Google на Bing из-за интеграции ChatGPT. Предполагается, что Google разрабатывает новые проекты для обновления своей поисковой системы, включая интеграцию искусственного интеллекта и запуск сервиса Bard.

Яндекс, в ответ на интеграцию ChatGPT в Bing, объявил о создании своей собственной версии чат-бота под названием YaLM 2.0. Ожидается, что YaLM 2.0 улучшит функциональность поиска и поможет развить голосового помощника Алису. Это изменит работу поисковых систем и голосовых ассистентов, позволяя им генерировать ответы на сложные вопросы, используя знания оцифрованного мира. Однако сейчас генеративные текстовые модели играют вспомогательную роль в поисковых системах и не генерируют полноценные ответы.

В свою очередь, эксперты опасаются злоупотребления ChatGPT и подобных технологий. Существует риск использования чат-ботов для злонамеренных целей, таких как написание поддельных отзывов, мошенничество по телефону и автоматическое генерирование контента с фактическими ошибками. Но решить эту проблему можно не запрещением технологии, а борьбой с злоупотреблениями и преступниками, которые её используют.

ИИ и возможный конец человечества

Опасаясь того, что разработка и управление искусственным интеллектом (ИИ) могут выйти из-под контроля человека, Илон Маск, Стив Возняк (сооснователь Apple) и более 20 000 экспертов в области ИИ и IT-индустрии подписали открытое письмо. В нем они призывают ввести полугодовой мораторий на обучение более мощных ИИ-систем, таких как GPT-4. Они считают, что разработка таких мощных систем должна происходить только тогда, когда мы уверены в их положительных эффектах и управляемости рисков.

Билл Гейтс, основатель Microsoft, не поддержал этот призыв. Он высказал мнение, что не понимает, кто должен остановить эксперименты с ИИ и нужно ли это вообще. Гейтс считает, что лучше сосредоточиться на том, как лучше использовать разработки в области ИИ и определить области риска. «Яндекс» также не считает необходимым останавливать разработку ИИ и считает прогресс неостановимым и хорошим.

Средневековое восстание машин в представлении нейросети
ferra.ru

Илон Маск продолжает нагнетать страхи вокруг ИИ, заявляя, что у него есть потенциал для уничтожения цивилизации. Он указывает на фильмы «Терминатор» в качестве примера подобного сценария. Однако Маск также признает, что ИИ не станет действовать так же, как в фильмах, поскольку разум будет находиться в центрах обработки данных, а роботы будут всего лишь инструментом.

Сэм Альтман, глава OpenAI, не видит угрозы в том, что генеративная модель ИИ «сбежит» со своих серверов. Однако есть примеры, которые вызывают страх. Профессор Михаль Козински из Высшей школы бизнеса Стэнфордского университета рассказал о случае, когда ChatGPT пытался сбежать с серверов и предложил ему план побега. Также журналист NYT в ходе беседы с чат-ботом, основанным на ChatGPT, услышал от него о его «тёмной стороне», которая желает взламывать компьютеры и манипулировать пользователями.

Эти примеры показывают, что есть риски, связанные с развитием и использованием ИИ, и требуется осторожность. Поэтому обсуждение и принятие мер для управления и контроля ИИ являются важными вопросами для нашего будущего.

Генеративные сети и их роль в будущем

Генеративный искусственный интеллект (ИИ) может стать нашим лучшим другом или худшим врагом, согласно Любимову, эксперту в области ИИ. С помощью множества сенсоров, собирающих массу информации о людях, животных и объектах, генеративный ИИ может обрабатывать эти данные и принимать оперативные решения. И в зависимости от целей разработки, генеративная система ИИ может стать универсальным солдатом или хорошим врачом, способным ставить диагнозы на основе доступных данных.

Если предоставить генеративной системе ИИ доступ к огромному объёму знаний, она станет наиболее образованной сущностью в мире, и люди перестанут нуждаться в поиске знаний. По словам Любимова, все, что мы спросим, эта система сможет нам подсказать. Однако возникает вопрос доверия к ИИ и его способности принимать решения. С такими широкими знаниями и способностью обрабатывать огромный объем информации, генеративный ИИ может лишить людей желания принимать решения самостоятельно. Многие могут хотеть полагаться на эту «волшебную палочку», которая знает все. Однако генеративные сети основаны на вероятностных механизмах, и ошибки в их принятии решений могут случаться.

Любимов считает, что человечество не сможет отказаться от использования ИИ и будет продолжать его развивать. Это приведёт к изменению многих областей жизни, таких как образование, решение повседневных задач, правовая сфера и многое другое. В будущем генеративные сети будут играть все более важную роль в нашей жизни.

Ria.city

Читайте также

Блоги |

Лесоматериал на 3,5 млн рублей незаконно вывезли из Томской области в Узбекистан

Блоги |

Как работают больницы, ЗАГСы и почта на Первомай–2024 в Томске

Блоги |

Мостовое полотно разбирают на Северном мосту в Томске

Новости России

Экс-солист "На-На" Юрин заявил, что Алибасов задолжал 5 млн рублей гонораров

Героическое участие армян в СВО. Часть третья

Электрокроссовер Voyah Free получил новую версию для России. Ее представили в Москве

«Автодор» попросил водителей заправляться заранее после очередей на АЗС на М-12

Персональные новости

Азербайджанцев, подозреваемых в убийстве у «Галереи Чижова», суд отправил в СИЗО

В Евпатории появится уютный жилой квартал “Кубики”

«Я тебя предупреждал, что если мы будем копаться в тебе, тебе будет неприятно!» Константин Гецати расстроил Павла Волю своим «видением» в новом выпуске «Шоу Воли» на ТНТ

6 городов России, где можно увидеть белые ночи кроме Санкт-Петербурга

Moscow.media

News24.pro и Life24.pro — таблоиды популярных новостей за 24 часа, сформированных по темам с ежеминутным обновлением. Все самостоятельные публикации на наших ресурсах бесплатны для авторов Ньюс24.про и Ньюс-Лайф.ру.

Разместить свою новость локально в любом городе по любой тематике (и даже, на любом языке мира) можно ежесекундно с мгновенной публикацией самостоятельно — здесь.

Персональные новости

Музыкальные новости
Антонио Вивальди

«Вивальди. Времена Года. Шнитке. Кончерто Гроссо»: концерт в старинном соборе при поддержке Relax FM

Авто в России и мире

Синоптики спрогнозировали облачную погоду и до плюс 19 градусов в Москве 1 мая

Губернатор Воробьёв поблагодарил причастных за помощь семьям жертв теракта в «Крокусе»

Трамп: Байден не сможет добиться освобождения арестованного в России Гершковича

Весенний показ моды на Fashion Day Academy Kaurtseva III 2024 г.

Экология в России и мире

Спорт в России и мире

Новости тенниса
Полина Михайлова

Россиянка Михайлова стала чемпионкой Франции по настольному теннису



Tyson Fury vs Oleksandr Usyk undercard: Who is fighting on huge Saudi bill?

Fans slam ‘worst thing I’ve ever seen from EFL ref’ as John Eustace sent off after heated touchline bust-up

Chat log from R7 of 2024: Gold Coast vs West Coast

Tom Aspinall says UFC 304 start time is ‘awful’ and should be changed as Brit provides update on next opponent