Дружественный искусственный интеллект: различия между версиями
[непроверенная версия] | [непроверенная версия] |
орфография |
Lesless (обсуждение | вклад) Нет описания правки |
||
Строка 1: | Строка 1: | ||
{{недостаточно критики}}{{стиль}} |
{{недостаточно критики}}{{стиль}} |
||
'''Дружественный искусственный интеллект''' (Дружественный ИИ, ДИИ — {{lang-en|Friendly Artificial Intelligence, Friendly AI, FAI}}) — концепция [[Философия искусственного интеллекта|философии ИИ]], гипотетический тип искусственного интеллекта, не оказывающий негативного влияния на [[Человеческая цивилизация|человеческую цивилизацию]]. Многие концепции ДИИ включают утверждение о том, что он не только не будет приносить |
'''Дружественный искусственный интеллект''' (Дружественный ИИ, ДИИ — {{lang-en|Friendly Artificial Intelligence, Friendly AI, FAI}}) — концепция [[Философия искусственного интеллекта|философии ИИ]], гипотетический тип искусственного интеллекта, не оказывающий негативного влияния на [[Человеческая цивилизация|человеческую цивилизацию]]. Многие концепции ДИИ включают утверждение о том, что он не только не будет приносить вреда человечеству, но и будет оказывать материально-информационную поддержку людям, вплоть до полного обеспечения желаний и потребностей каждого отдельно взятого человека. «Дружественный» в данном контексте является техническим термином, который не означает, что [[Искусственный интеллект|ИИ]] обязательно будет испытывать к человечеству [[Эмоция|чувства]] привязанности и близости. |
||
== Продвижение и поддержка == |
== Продвижение и поддержка == |
||
Строка 8: | Строка 8: | ||
== Критика == |
== Критика == |
||
Наиболее заметным критиком теории Дружественного ИИ является [[Билл Хиббард]], автор книги «Сверхинтеллектуальные машины», который считает эту теорию неполной. Хиббард пишет, что для создания ДИИ требуется большее политическое обсуждение вопросов создания ИИ и ИИ-морали. Он также полагает, что первый ИИ может быть создан только мощными частными корпорациями (что Юдковски считает ложным), и эти транснациональные корпорации не будут иметь |
Наиболее заметным критиком теории Дружественного ИИ является [[Билл Хиббард]], автор книги «Сверхинтеллектуальные машины», который считает эту теорию неполной. Хиббард пишет, что для создания ДИИ требуется большее политическое обсуждение вопросов создания ИИ и ИИ-морали. Он также полагает, что первый ИИ может быть создан только мощными частными корпорациями (что [[Юдковски, Елиэзер|Юдковски]] считает ложным), и эти транснациональные корпорации не будут иметь никаких побуждений реализовать дружественность. Критикуя рекомендации SIAI по созданию ДИИ, он предложил архитектуру целей для ИИ, в которой человеческое счастье определяется через человеческое поведение, выражающее счастье, в частности, выражение улыбки на лице. Юдковски ответил на эту критику, сказав, что такая функция полезности скорее была бы удовлетворена, если бы вся Солнечная Система была заполнена микроскопическими улыбающимися манекенами, чем благодаря реальному счастью людей<ref name="smile">{{cite mailing list|url=http://www.sl4.org/archive/0305/6846.html|author=Eliezer Yudkowsky|title=Re: SIAI's flawed friendliness analysis|mailinglist=Shock Level 4|date=2003-05-29|accessdate=2009-08-05|authorlink=Eliezer_Yudkowsky|archivedate=2009-12-13|archiveurl=https://web.archive.org/web/20091213065850/http://www.sl4.org/archive/0305/6846.html}}</ref>. |
||
== См. также == |
== См. также == |
Версия от 09:18, 28 марта 2023
В этой статье недостаточно критики, так как необходимо освещение с различных точек зрения. |
Стиль этой статьи неэнциклопедичен или нарушает нормы литературного русского языка. |
Дружественный искусственный интеллект (Дружественный ИИ, ДИИ — англ. Friendly Artificial Intelligence, Friendly AI, FAI) — концепция философии ИИ, гипотетический тип искусственного интеллекта, не оказывающий негативного влияния на человеческую цивилизацию. Многие концепции ДИИ включают утверждение о том, что он не только не будет приносить вреда человечеству, но и будет оказывать материально-информационную поддержку людям, вплоть до полного обеспечения желаний и потребностей каждого отдельно взятого человека. «Дружественный» в данном контексте является техническим термином, который не означает, что ИИ обязательно будет испытывать к человечеству чувства привязанности и близости.
Продвижение и поддержка
Продвижение Дружественного ИИ является одной из основных задач Singularity Institute for Artificial Intelligence, равно как и получение финансирования этого проекта и в конечном счёте создание «зародыша ИИ», в систему мотивации которого будет изначально встроена забота о человечестве. Несколько известных футурологов высказались в поддержку теории Дружественного ИИ, включая писателя и изобретателя Рея Курцвейла, специалиста по продлению жизни Обри ди Грея и сооснователя World Transhumanist Association Ника Бострома.
11 декабря 2015 года Илон Маск, Сэм Олтмен и другие основали компанию OpenAI, целью которой является способствование созданию открытого ДИИ.
Критика
Наиболее заметным критиком теории Дружественного ИИ является Билл Хиббард, автор книги «Сверхинтеллектуальные машины», который считает эту теорию неполной. Хиббард пишет, что для создания ДИИ требуется большее политическое обсуждение вопросов создания ИИ и ИИ-морали. Он также полагает, что первый ИИ может быть создан только мощными частными корпорациями (что Юдковски считает ложным), и эти транснациональные корпорации не будут иметь никаких побуждений реализовать дружественность. Критикуя рекомендации SIAI по созданию ДИИ, он предложил архитектуру целей для ИИ, в которой человеческое счастье определяется через человеческое поведение, выражающее счастье, в частности, выражение улыбки на лице. Юдковски ответил на эту критику, сказав, что такая функция полезности скорее была бы удовлетворена, если бы вся Солнечная Система была заполнена микроскопическими улыбающимися манекенами, чем благодаря реальному счастью людей[1].
См. также
- en:Seed AI — теория, связанная с ДИИ
- Трансгуманизм
- Технологическая сингулярность
- Проблема контроля искусственного интеллекта
Примечания
- ↑ Eliezer Yudkowsky (2003-05-29). "Re: SIAI's flawed friendliness analysis". Shock Level 4 (Mailing list). Архивировано 13 декабря 2009. Дата обращения: 5 августа 2009.
{{cite mailing list}}
: Неизвестный параметр|mailinglist=
игнорируется (|mailing-list=
предлагается) (справка)
Литература
- Юдковски, Э. Искусственный интеллект как позитивный и негативный фактор глобального риска.. Вышла в книге «Риски глобальной катастрофы», Оксфорд, 2008.
Ссылки
- Ethical Issues in Advanced Artificial Intelligence by Nick Bostrom
- What is Friendly AI? — A brief explanation of Friendly AI by the Singularity Institute.
- SIAI Guidelines on Friendly AI — The Singularity Institute’s Official Guidelines
- Creating Friendly AI — A near book-length explanation from the SIAI
- Critique of the SIAI Guidelines on Friendly AI — by Bill Hibbard
- Commentary on SIAI’s Guidelines on Friendly AI — by Peter Voss.
- Respectful AI Project Page by Tim Freeman