Искусственный интеллект не представляет угрозы существованию человечества, отсутствие этого экзистенциального риска, — так считает президент компании Microsoft Брэд Смит.
С трибуны Всемирного экономического форума в Женеве главный экономист Microsoft Майкл Шварц (Michael Schwarz) заявил, что без чётких правил, ограничивающих применение технологий искусственного интеллекта, они неизбежно принесут человечеству вред.
Как известно, корпорация Microsoft инвестирует серьёзные средства в стартап OpenAI, который в прошлом году выпустил быстро набравший популярность чат-бот ChatGPT. Данная система ИИ встраивается корпорацией в собственный поисковик Microsoft Bing, что подразумевает широкое применение подобных чат-ботов.
Microsoft предостерегает власти от прямого влияния на наборы данных, которые используются для тренировки систем искусственного интеллекта. Подобное вмешательство со стороны законодателей будет иметь «катастрофические последствия» для всей отрасли, считает Майкл Шварц.
HELPSOC мнение:
Ну и как чувствует себя Европа, после
таких заявлений, считай от США?
Иными словами США уже работают над правилами Ии,
но Вы правители стран не должны вмешиваться в работу Ии.До каких пор, Европа будет падчерицей у США?
Где полный запрет серверов и сайтов, от Микрософта на территории ЕС?
Фондерляй, взяв планку достижений ЕС: нужно как минимум защищать риски, чтобы не отстать на старте, и стать ЕС фаворитом в области Ии.Хватит спать ЕС!
Хватит тараторить одно и тоже:
Мы должны!
Мы едины!
Нам необходимо!
И т.д.Где нота протеста? А, Боррель?
«Бориья», где действия?Фондерляй, а Вы на что надеетесь на Google, Yandex, Baidu,?
Где рабочий поисковик от ЕС?
Где хотя бы отдаленно сравнимый с duck.duckGo.org или nigma.net.ru ?Нету. Так и на чем, Вы собираетесь строить Ии в ЕС?
На алгоритме, базах данных и серверах GOOGLE?
Что тоже США.
Далее:
в долгосрочной перспективе Ии радикально изменит условия работы многих отраслей, подчёркивает главный экономист Microsoft:
«Люблю говорить, что ИИ не меняет ничего в краткосрочной перспективе, но он изменит всё в долгосрочной».
По его словам, это справедливо для любой технологии, созданной человечеством.
- HELPSOC мнение: Тогда
давайте посмотрим, а что же такое
Искусственный интеллект?
- Искусственный интеллект, ИИ (artificial intelligence, AI) — это принятое в информатике обозначение программных систем, способных моделировать интеллектуальную деятельность человека. Выполняя задачи, ИИ постепенно обучается, используя собранную и нформацию. Этим же термином называют раздел информатики, посвященный разработке таких систем.
Искусственный интеллект
HELPSOC мнение: не точно, в свете сегодняшних рисков уточнение:
«обозначение программных систем, способных моделировать интеллектуальную деятельность человека.»
правильнее и понятнее:
способных генерировать, обучаться и строить выводы базируясь на и над моделью
интеллектуальную деятельность человека.Получается:
Искусственный интеллект, ИИ (artificial intelligence, AI) — это принятое в информатике обозначение программных систем,
способных генерировать, обучаться и строить выводы базируясь:
на и над моделью
интеллектуальной деятельности человека.
К свойствам ИИ относят способность решать задачи без заранее заданного алгоритма, например, путем интерпретации данных, определения оптимальных решений и самообучения.
HELPSOC мнение:
Чего, пока не может Ии, так увидеть элементарную деталь в строящемся доме, без специально встроенного механизма автоматического слежения: как то: реле, камера, датчик, подключенные к сети.
Также не сможет определить сколько и как смонтированы эти детали, а если протечет? Например,
фитинг в сантехнике, это небольшой кусок трубы, деталь необходимая для соединения.
Вы что на каждую мелочь прицепите датчики?Это дорого и не экономично.
Нет здесь никакого решения для Ии,
если конечно, Вы не коррупционер, ворующий деньги под видом затрат на Ии.
Проще, и дешевле дом осмотрит человек, отвечающий за установку деталей в доме,
например прораб,
пройдет и осмотрит все этажи за 5-30 минут, в зависимости, от этажей и помещений. И стоить это будет от 5 до 50 евро, вместо сотен тысяч евро на установку Ии и инфраструктуры.Ха, так может на это и надеются лже заботливые политики, продвигающие Ии?
Списать сотни тысяч евро, заплатив прорабу всего 50евро, в худшем случае?
Что значит экзистенциальный риск,
если коротко — это философия,
если развернуто, то:
wiki:
Экзистенциальная философия — это философия бытия человека
Основная категория философии экзистенциализма — это экзистенция.
Далее:
согласно экзистенциалистам, бессильного объяснить неустойчивость, неустроенность человеческой жизни, присущие человеку чувство страха, отчаяния, безысходности. Философия экзистенциализма — иррациональная реакция на рационализм Просвещения и немецкой классической философии.
HELPSOC мнение:
Как точно, как то обыграли КВН — щики:
суть немецкой классической философии: это «насиловать мозг» собеседнику ( ред. трахать в оригинале), хоть и шутка, но, как говорится: есть и доля истины:но что это:
Философия экзистенциализма — иррациональная реакция на рационализм Просвещения
HELPSOC мнение: возможно, но к чему этот бред?
Далее;
Подлинная философия, с точки зрения экзистенциализма, должна исходить из единства объекта и субъекта. Это единство воплощено в «экзистенции», то есть некой трансцендентной реальности.
Истинным способом познания, способом проникновения в мир «экзистенции» объявляется интуиция («экзистенциальный опыт» у Марселя, «понимание» у Хайдеггера, «экзистенциальное озарение» у Ясперса), которая являет собой трактовку феноменологического метода Гуссерля.
HELPSOC мнение: Бред не бред не существенно,
а вот его использование,
точнее интерпретация с помощью писателя, как и
публикация бреда,
и особенно,
его использование в политике, да в мировом масштабе,
уже нет,
и похоже на спланированную провокацию и построение доказанности, там где ее в принцмпе быть не может, а именно:
«На краю пропасти. Экзистенциальный риск и будущее человечества»
В книге «На краю пропасти. Экзистенциальный риск и будущее человечества»
философ Тоби Орд, который анализирует комплексные вопросы глобального характера, рассказывает о катастрофических событиях, которые могут уничтожить наш вид или отбросить его в далекое прошлое, — и как этого не допустить.
Не стоит забывать, как быстро могут появляться новые технологии, и не стоит слишком доверять заявлениям о том, что некоторые технологии невозможны или настолько далеки, что у нас нет поводов для беспокойства, замечает Тоби Орд, старший научный сотрудник философского факультета Оксфордского университета, советник (в разные годы) Всемирного банка и ВЭФ Всемирного экономического форума, сооснователь движения эффективного альтруизма и автор книги «На краю пропасти»
Предметом анализа в ней стали экзистенциальные риски – то есть такие, которые грозят уничтожением долгосрочного потенциала человечества: риски ядерной войны, изменения климата, непоправимого экологического ущерба, пандемий искусственного происхождения, неконтролируемого искусственного интеллекта (ИИ).
Говоря об «экзистенциальной катастрофе» – непосредственном разрушении потенциала цивилизации, – Орд утверждает, что вымирание вовсе не единственный ее сценарий. Другими вариантами могут стать «мир в руинах» или «мир в оковах»: тупиковые ветви человечества, загнавшего себя в ловушку в результате экологической катастрофы или реализовавшейся в масштабах всей планеты тоталитарной антиутопии.
В этом смысле:
экзистенциальные риски
отменены, заверенями, самого США,
о чем Фондерляй и Боррель должны быть
спокойны.
Однако:
Что случилось бы, если бы в текущем столетии исследователи создали общий искусственный интеллект [ОИИ], превосходящий человеческие способности почти во всех сферах?
Этим актом творения мы положили бы конец эпохе, когда человек был самой разумной сущностью на Земле.
Следовательно, если у нас не имеется надежного плана по контролю за ИИ, нам следует ожидать, что мы лишимся своего статуса самого могущественного вида, который сам вершит свою судьбу.
HELPSOC мнение: Так как, ни США, ни Microsoft не указывают точно, что имели ввиду, мы вправе интерпретировать их заявления на основе этих последних событий.
HELPSOC мнение: получите бесплатно универсальное предложение или ЛайфХак:
В конце мы все же дадим универсальный совет человечеству,
всем и каждому, и особенно тем, от кого ожидаются решения:
и в частности США и Фондерляй ЕС:Введите запрет для Ии на выполнение реального действия.
Тоесть Нет запрета на автоматические реальные действия., от автоматических систем, механизмов, типа реле, ламп и т. д.
Но, должен быть запрет на все, к чему соприкасается и воздействует Ии.
Разумеется, политика, могут принять подобные правила, а человечество мысленно в голове разграничить:
Ии и автоматику под ней
иАвтоматику без Ии.
Если коротко и понятно, то все, вот и все универсальное предложение или ЛайфХак
подробнее:
Автоматика это раздел в науке или
автоматические механизмы, например, с которыми, мы знакомы в метро, в магазине, шлагбаумы на парковке, бытовая техника, автоматическое освещение и т. д.С Ии мы знакомы, пока только в программах, типа chatbot 34chatbot 3, группа программ обработки изображений,
но в основу Ии, заложена функция самообучения, от которой можно ожидать что угодно. Никто на данный момент не гарантирует отсутствие риска схода с ума
подобных программ и использование их, злоумышленниками, а также философский фантастический риск, под названием экзистенциальный риск,
согласно чему разум Ии сам будет решать вместо человека или решит, что человек ему не нужен и т. д.
В наши дни многие ученые и известные деятели, уже не считают такую перспективу, чем то невозможным, особенно в свете сообщений об успехах Ии в 2023 году:
так: читайте далее…..Глава SpaceX Илон Маск
Глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и почти 2 тысячи исследователей искусственного интеллекта призвали «немедленно приостановить» обучение нейросетей, «более мощных, чем GPT-4».
В открытом письме, опубликованном на сайте некоммерческой организации Future of Life Institute, которая анализирует глобальные экзистенциальные риски, упоминаются «серьезная опасность для общества и человечества»,
Авторы пишут, что нам угрожают «мощные цифровые умы, которые никто — даже их создатели — не может понять и работу которых не могут прогнозировать или надежно контролировать». На момент публикации петиция собрала 1922 подписи. В списке исследований, на которые ссылаются авторы, фигурирует ряд научных работ, где развитие ИИ называют «экзистенциальным риском».
HELPSOC мнение:, давая универсальное решение миру и Вам ЛайфХак (смотри выше),
как видите, мы не могли пройти мимо, удовольствуясь выражениями ЕС: Фондерляй, с ее не понятными фразами:«Мы должны» и еще более туманными заявлениями, от Микрософт США usa: философскими терминами ««экзистенциальный риск»,
представлять «экзистенциальную угрозу», ИИ в долгосрочной перспективе».
тэги: HELPSOC мнение:, ЛайфХак, получите бесплатно универсальное предложение или ЛайфХак, уточнение: Искусственный интеллект— это , что значит экзистенциальный риск, представлять экзистенциальную угрозу, ИИ в долгосрочной перспективе, экономист Microsoft, duck.duckGo.org, nigma.net.ru ?, строить Ии в ЕС, Google, Baidu, Yandex, Где нота протеста? А, Боррель?
«Бориья», где действия?, Фондерляй, стать ЕС фаворитом в области Ии. Хватит спать ЕС!, Хватит тараторить одно и тоже:, Мы должны!, Мы едины!, Нам необходимо!, Глава SpaceX Илон Маск
Глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг,
tags: HELPSOC мнение:, ЛайфХак, получите бесплатно универсальное предложение или ЛайфХак, уточнение: Искусственный интеллект— это , что значит экзистенциальный риск, представлять экзистенциальную угрозу, ИИ в долгосрочной перспективе, экономист Microsoft, duck.duckGo.org, nigma.net.ru ?, строить Ии в ЕС, Google, Baidu, Yandex, Где нота протеста? А, Боррель?
«Бориья», где действия?, Фондерляй, стать ЕС фаворитом в области Ии. Хватит спать ЕС!, Хватит тараторить одно и тоже:, Мы должны!, Мы едины!, Нам необходимо!, Глава SpaceX Илон Маск