Дружественный искусственный интеллект: различия между версиями
[непроверенная версия] | [непроверенная версия] |
отмена правки 128737741 участника Quantum391 (обс.) Метки: отмена с мобильного устройства из мобильной версии через расширенный мобильный режим |
отмена правки 128737680 участника Quantum391 (обс.) Орфография Метки: отмена с мобильного устройства из мобильной версии через расширенный мобильный режим |
||
Строка 1: | Строка 1: | ||
{{стиль}} |
{{недостаточно критики}}{{стиль}} |
||
'''Дружественный искусственный интеллект''' (Дружественный ИИ, ДИИ — {{lang-en|Friendly Artificial Intelligence, Friendly AI, FAI}}) — концепция [[Философия искусственного интеллекта|философии ИИ]], гипотетический тип искусственного интеллекта, не оказывающий негативного влияния на [[Человеческая цивилизация|человеческую цивилизацию]]. Многие концепции ДИИ включают утверждение о том, что он не только не будет приносить вреда человечеству, но и будет оказывать материально-информационную поддержку людям, вплоть до полного обеспечения желаний и потребностей каждого отдельно взятого человека. «Дружественный» в данном контексте является техническим термином, который не означает, что [[Искусственный интеллект|ИИ]] обязательно будет испытывать к человечеству [[Эмоция|чувства]] привязанности и близости. |
'''Дружественный искусственный интеллект''' (Дружественный ИИ, ДИИ — {{lang-en|Friendly Artificial Intelligence, Friendly AI, FAI}}) — концепция [[Философия искусственного интеллекта|философии ИИ]], гипотетический тип искусственного интеллекта, не оказывающий негативного влияния на [[Человеческая цивилизация|человеческую цивилизацию]]. Многие концепции ДИИ включают утверждение о том, что он не только не будет приносить вреда человечеству, но и будет оказывать материально-информационную поддержку людям, вплоть до полного обеспечения желаний и потребностей каждого отдельно взятого человека. «Дружественный» в данном контексте является техническим термином, который не означает, что [[Искусственный интеллект|ИИ]] обязательно будет испытывать к человечеству [[Эмоция|чувства]] привязанности и близости. |
||
Строка 14: | Строка 14: | ||
Критикуя рекомендации SIAI по созданию ДИИ, он предложил архитектуру целей для ИИ, в которой человеческое счастье определяется через человеческое поведение, выражающее счастье, в частности, выражение улыбки на лице. Юдковски ответил на эту критику, сказав, что такая функция полезности скорее была бы удовлетворена, если бы вся Солнечная Система была заполнена микроскопическими улыбающимися манекенами, чем благодаря реальному счастью людей<ref name="smile">{{cite mailing list|url=http://www.sl4.org/archive/0305/6846.html|author=Eliezer Yudkowsky|title=Re: SIAI's flawed friendliness analysis|mailinglist=Shock Level 4|date=2003-05-29|accessdate=2009-08-05|authorlink=Eliezer_Yudkowsky|archivedate=2009-12-13|archiveurl=https://web.archive.org/web/20091213065850/http://www.sl4.org/archive/0305/6846.html}}</ref>. |
Критикуя рекомендации SIAI по созданию ДИИ, он предложил архитектуру целей для ИИ, в которой человеческое счастье определяется через человеческое поведение, выражающее счастье, в частности, выражение улыбки на лице. Юдковски ответил на эту критику, сказав, что такая функция полезности скорее была бы удовлетворена, если бы вся Солнечная Система была заполнена микроскопическими улыбающимися манекенами, чем благодаря реальному счастью людей<ref name="smile">{{cite mailing list|url=http://www.sl4.org/archive/0305/6846.html|author=Eliezer Yudkowsky|title=Re: SIAI's flawed friendliness analysis|mailinglist=Shock Level 4|date=2003-05-29|accessdate=2009-08-05|authorlink=Eliezer_Yudkowsky|archivedate=2009-12-13|archiveurl=https://web.archive.org/web/20091213065850/http://www.sl4.org/archive/0305/6846.html}}</ref>. |
||
Open ai должны были создать дружествиный ии а заместо |
Open ai должны были создать дружествиный ии а заместо етого стравливают ии и людей в экшен играх. |
||
== См. также == |
== См. также == |
Версия от 08:39, 27 февраля 2023
В этой статье недостаточно критики, так как необходимо освещение с различных точек зрения. |
Стиль этой статьи неэнциклопедичен или нарушает нормы литературного русского языка. |
Дружественный искусственный интеллект (Дружественный ИИ, ДИИ — англ. Friendly Artificial Intelligence, Friendly AI, FAI) — концепция философии ИИ, гипотетический тип искусственного интеллекта, не оказывающий негативного влияния на человеческую цивилизацию. Многие концепции ДИИ включают утверждение о том, что он не только не будет приносить вреда человечеству, но и будет оказывать материально-информационную поддержку людям, вплоть до полного обеспечения желаний и потребностей каждого отдельно взятого человека. «Дружественный» в данном контексте является техническим термином, который не означает, что ИИ обязательно будет испытывать к человечеству чувства привязанности и близости.
Продвижение и поддержка
Продвижение Дружественного ИИ является одной из основных задач Singularity Institute for Artificial Intelligence, равно как и получение финансирования этого проекта и в конечном счёте создание «зародыша ИИ», в систему мотивации которого будет изначально встроена забота о человечестве. Несколько известных футурологов высказались в поддержку теории Дружественного ИИ, включая писателя и изобретателя Рея Курцвейла, специалиста по продлению жизни Обри ди Грея и сооснователя World Transhumanist Association Ника Бострома.
11 декабря 2015 года Илон Маск, Сэм Альтман и другие основали компанию OpenAI, целью которой является способствование созданию открытого ДИИ.
Open ai
Open AI была основана именитыми бизнесменами и финансистами Илоном Маском и Сэмом Альтманом в июне 2015 года. Движение было инициировано идеей развития искусственного интеллекта, который может выполнять задачи сравнительно безопасно для людей. В 2016 году Open AI провело соревнование по программированию Дот-Текс и в играх ии схажалось против людей ии победил чемпионов по доте из многих партий виграли люди только в 2% случиев .
Критика
Наиболее заметным критиком теории Дружественного ИИ является Билл Хиббард, автор книги «Сверхинтеллектуальные машины», который считает эту теорию неполной. Хиббард пишет, что для создания ДИИ требуется большее политическое обсуждение вопросов создания ИИ и ИИ-морали. Он также полагает, что первый ИИ может быть создан только мощными частными корпорациями (что Юдковски считает ложным), и эти транснациональные корпорации не будут иметь никаких побуждений реализовать дружественность. Критикуя рекомендации SIAI по созданию ДИИ, он предложил архитектуру целей для ИИ, в которой человеческое счастье определяется через человеческое поведение, выражающее счастье, в частности, выражение улыбки на лице. Юдковски ответил на эту критику, сказав, что такая функция полезности скорее была бы удовлетворена, если бы вся Солнечная Система была заполнена микроскопическими улыбающимися манекенами, чем благодаря реальному счастью людей[1].
Open ai должны были создать дружествиный ии а заместо етого стравливают ии и людей в экшен играх.
См. также
- en:Seed AI — теория, связанная с ДИИ
- Трансгуманизм
- Технологическая сингулярность
- Проблема контроля искусственного интеллекта
Примечания
- ↑ Eliezer Yudkowsky (2003-05-29). "Re: SIAI's flawed friendliness analysis". Shock Level 4 (Mailing list). Архивировано 13 декабря 2009. Дата обращения: 5 августа 2009.
{{cite mailing list}}
: Неизвестный параметр|mailinglist=
игнорируется (|mailing-list=
предлагается) (справка)
Литература
- Юдковски, Э. Искусственный интеллект как позитивный и негативный фактор глобального риска.. Вышла в книге «Риски глобальной катастрофы», Оксфорд, 2008.
Ссылки
- Ethical Issues in Advanced Artificial Intelligence by Nick Bostrom
- What is Friendly AI? — A brief explanation of Friendly AI by the Singularity Institute.
- SIAI Guidelines on Friendly AI — The Singularity Institute’s Official Guidelines
- Creating Friendly AI — A near book-length explanation from the SIAI
- Critique of the SIAI Guidelines on Friendly AI — by Bill Hibbard
- Commentary on SIAI’s Guidelines on Friendly AI — by Peter Voss.
- Respectful AI Project Page by Tim Freeman