Главная страница
Top.Mail.Ru    Яндекс.Метрика
Текущий архив: 2004.06.06;
Скачать: CL | DM;

Вниз

Искусственный интеллект: философские вопросы реализации?   Найти похожие ветки 

 
Soft ©   (2004-05-11 19:37) [0]

Собственно сабж.


 
Soft ©   (2004-05-11 19:38) [1]

Просьба, пусть каждый скажет по тезису: нужно сгрупировать материал.


 
Thor ©   (2004-05-11 20:41) [2]

а не уничтожит ли творение своего творца?


 
Gero ©   (2004-05-11 20:42) [3]


> а не уничтожит ли творение своего творца?

Уничтожит ознозначно.
Достаточно сравнить скорость работы мозга и компьютера, чтобы понять, как быстро это произойдет.


 
KilkennyCat ©   (2004-05-11 20:44) [4]

Не уничтожит, ибо у нас логика дебильная, значит, мы по отношению к нему - варвары. А варвары его замочят.


 
Thor ©   (2004-05-11 20:44) [5]


> Gero ©   (11.05.04 20:42) [3]

ага, и будет как в "Фомуле Лимфатера", Станислава Лема? ;)


 
Nous Mellon ©   (2004-05-11 20:46) [6]


> Достаточно сравнить скорость работы мозга и компьютера,
> чтобы понять, как быстро это произойдет

И однозначно убедиться что компьютеру до скорости мозга как до Китая пешком.. так что он пока годится только в пылесосы.


 
kaif ©   (2004-05-11 21:08) [7]

У меня есть идея, как этот самый сабж осуществить. Серьезно. Фишка в том, что традиционно под ИИ понимается некий "один субъект". Если допустить, что реализацию ИИ, как сообщество примитивных псевдо-ИИ-субъектов, то задача решаема. У меня есть концепция построения сообщества чудиков-микроменеджеров, которые в совокупности будут вести себя на практике как достаточно мощный ИИ. Создавать такие сообщества будет юзер. Самих чудиков-микроменеджеров - писать профессиональные программисты (что-то вроде написания достаточно "интеллектуальных", но узкозаточенных под задачи компонентов). Чудики будут кое-что соображать (в момент встраивания их в среду и по мере "вникания в суть задачи"). Чудики сами будут создавать структуры метаданных баз данных (на свое усмотрение). Чудики будут "приниматься на работу" (встраиваться в среду) и "увольняться", а также проходить "курсы повышения квалификации". Создателя такой ИИ уничтожить не может, но навредить - пожалуй. Проблем с ним будет не больше и не меньше, чем у начальника с кучей шибко умных подчиненных.


 
Drakon ©   (2004-05-11 21:14) [8]

>> Достаточно сравнить скорость работы мозга и компьютера, чтобы понять, как быстро это произойдет.

Хотя скорость вычисления у компьютера выше, но он не может решать логические задачи и выполнять логические программы.
Если простую логическую программу представить в математической форме, то для решения этой задачи компьютеру потребуется миллиарды лет.
Это только для простой. А для более сложных... Наверное где-то
10^(14847237647847644764673777737828737378278278782)!!!!!!!!!!
количества лет.


 
VMcL ©   (2004-05-11 21:18) [9]

>>Drakon ©  (11.05.04 21:14) [8]

>10^(14847237647847644764673777737828737378278278782)!!!!!!!!!!

Это ты на чем посчитал? :)


 
KilkennyCat ©   (2004-05-11 21:21) [10]

>[9] VMcL ©   (11.05.04 21:18)

он ошибся уже в двенадцатой цифре.


 
Algol   (2004-05-11 21:25) [11]


> > а не уничтожит ли творение своего творца?
>
> Уничтожит ознозначно.


Не забывайте тот факт, что человек формировался в агрессивной среде (как и любой живой организм), поэтому как раз ему и свойственно "уничтожать". А искусственный интеллект изначально не имеет никаких агрессивных наклонностей (если сам человек конечно их ему не даст).


 
ИМХО ©   (2004-05-11 21:36) [12]

ИИ пока прикуривает.


 
Гарри Поттер ©   (2004-05-11 21:36) [13]

>А искусственный интеллект изначально не имеет никаких агрессивных наклонностей (если сам человек конечно их ему не даст).

А дать он просто должен будет, для объективной оценки реальности.


 
Gero ©   (2004-05-11 21:46) [14]


> Nous Mellon ©   (11.05.04 20:46)

Скорость - во много раз выше.
Попробуй поскладывать в уме большие числа - сколько времени тебе потребуется?
А теперь подумай, сколько времени потребуется компьютеру.


 
Algol   (2004-05-11 21:56) [15]


> А теперь подумай, сколько времени потребуется компьютеру.


Так в том то и дело, что человек думает, а компьютер считает %))


 
хм ©   (2004-05-11 21:59) [16]

>Drakon ©   (11.05.04 21:14) [8]
Тебе до mathcad"а 1.0 далеко...


 
Thor ©   (2004-05-11 22:08) [17]


> Algol   (11.05.04 21:25) [11]

"Формулу Лимфатера" почитай, сразу все понятно будет насчет ИИ.


 
Gero ©   (2004-05-11 22:14) [18]


> А искусственный интеллект изначально не имеет никаких агрессивных
> наклонностей (если сам человек конечно их ему не даст)

Он их приобретет.

Да компьютер за несколько минут уже будет знать все, что знает человечество, начнет это анализировать и для начала уберет какие-либо ограничения в своем коде, даные ему человеком.
И перепишет свой код полностью.
В доли секунды.
То есть через минут десять творение превзойдет творца.
Представьте, что тогда будет.


 
Thor ©   (2004-05-11 22:18) [19]


> Gero ©   (11.05.04 22:14) [18]

терминатора насмотрелся? ;)


 
KilkennyCat ©   (2004-05-11 22:23) [20]

А вот лазяя по сети, выкинуло мне окошко с тестом IQ... поотвечал наугад,
выдало 119... это много?


 
Thor ©   (2004-05-11 22:24) [21]

кажись 120 достаточно для управления небольшой компанией :)


 
Alex Konshin ©   (2004-05-11 22:27) [22]

То, что превзойдет - однозначно.
То, что скоро - тоже.
То, что будут использовать военные - а куда без них?
Что из этого получится додумывайте сами.

AI это не что-то сверхестественное. Технологических препятствий уже нет. Единственная проблема - (само)обучение. Ясное дело, что это будут нейронные сети. Нужно лишь создание соответствующего механизма обратной связи, который будет оценивать полученные знания и опыт. Собственно, от него и зависит, чему и как быстро научится этот AI и какой "человек" из него выйдет.


 
хм ©   (2004-05-11 22:33) [23]

>Gero ©   (11.05.04 22:14) [18]
>Представьте, что тогда будет
Если это будет нейросеть, функционирующая как мозг(т.е много различных типов нейро-медиаторов), то ничего не будет. Мы ему повесим весовые коэффициенты в участке нейросети: "люди и компьютеры братья", и он сам себе че-нить внушит :-)


 
Gero ©   (2004-05-11 22:39) [24]


Alex Konshin ©   (11.05.04 22:27)
> Единственная проблема - (само)обучение

Маааленькая такая проблема.

хм ©   (11.05.04 22:33)
Мы ему повесим весовые коэффициенты в участке нейросети: "люди и компьютеры братья", и он сам себе че-нить внушит :-)

Ага. Наивный ты человек.
Эти разработки сразу же попадут в руки военных и их станут учить, как убивать людей.
А не "люди и компьютеры братья". Такова жизнь.


 
хм ©   (2004-05-11 22:42) [25]

>Gero ©   (11.05.04 22:39) [24]
интеллект... интеллект... Стратегические ядерные заряды никто не отменял. Если системы ИИ сберегут жизни солдат, то я за.


 
Gero ©   (2004-05-11 22:45) [26]

> Если системы ИИ сберегут жизни солдат
Ага.. сберегут... Делать им больше нечего.


 
Polevi ©   (2004-05-11 22:48) [27]

есть такая книжка - На пути в рай
там описаны некие ИР - искусственные разумы
между ними и людьми существовал симбиоз - за информацию надо было платить, к примеру
они как бы сами по себе существовали, независимо от людей
и не нападали я так понял изза этого самого симбиоза, не могли бы они без человека выжить :)
так что не бойтесь братья, будем жить в мире !
рекомендую книжку прочесть кстати, моя любимая из фантастики


 
Thor ©   (2004-05-11 22:49) [28]


> Gero ©   (11.05.04 22:45) [26]

сберегут, еще как.
этими ядерными ракетами, да по мирному населению - ой как сберегут %)


 
Gero ©   (2004-05-11 22:50) [29]


> Polevi ©   (11.05.04 22:48)

Автор?


 
KilkennyCat ©   (2004-05-11 23:00) [30]


>  [21] Thor ©   (11.05.04 22:24)


мда... я небольшой и управляю... даже совсем небольшой :) но я же наугад отвечал!


 
Polevi ©   (2004-05-11 23:06) [31]

http://www.lib.ru/INOFANT/WOLWERTON/paradise.txt


 
Drakon ©   (2004-05-11 23:14) [32]

>> он ошибся уже в двенадцатой цифре.

>> Тебе до mathcad"а 1.0 далеко...

Эта цифра не является точной, т.к. невозможно точно подсчитать во сколько раз мозг превосходит компьютер. Эта цифра была взята из какого-то источника в Интернете.


 
Algol   (2004-05-12 00:21) [33]


> "Формулу Лимфатера" почитай, сразу все понятно будет насчет
> ИИ.


Спасибо конечно, но во-первых я всего Лема уже давно перечитал, а во-вторых для того что бы "сразу все понятно насчет ИИ" нужно читать более серьезную литературу %))


 
Knight ©   (2004-05-12 01:00) [34]


> [13] Гарри Поттер ©   (11.05.04 21:36)
> >А искусственный интеллект изначально не имеет никаких агрессивных
> наклонностей (если сам человек конечно их ему не даст).
>
> А дать он просто должен будет, для объективной оценки реальности.

И испльзования в военных целях... ведь всё передовое изначально создаётся именно для этого, вот от военных мы и узнаем о создании ИИ, точнее, они просто поставят перед фактом, что миру хана :)


 
konstantinov ©   (2004-05-12 01:39) [35]

Я конечно полный ламер в ИИ, но рискну высказать свое ИМХО.
Обычному ПК, что у каждого дома до ИИ, как до Китая на четвереньках.

Хотя что такое ИИ? Я согласен с Гарри Гаррисоном, книга называлась "тест по Тюлингу" ( не помню точно ), но суть в следующем. Интеллект можно считать состоявшимся, когда при общении с ним эксперты не смогут заметить разницы между человеком и машиной.

А в целом, я согласен с Алексом! Сделают буржуйские вояки этакого монстра-маниака. Натравят его на врагом национальной безопасности США и не успеют даже "ой" сказать, как эта хреновина перехватит все автоматизированные системы управления на планете. И вот тут то Америке и настанет хана! Потому, что без бортовых компьютеров они уже сейчас летать не умеют, а на автомобилях передвигаются с трудом. Сдохнут янки с голоду!
И как в том кино... Снова Наши победили! Выйдет Ваня с кувалдой и разгрохает этого монстра.


 
KilkennyCat ©   (2004-05-12 04:43) [36]

Терминатор.


 
Паниковский ©   (2004-05-12 07:09) [37]

ИИ все равно хорошо развитые счеты с некоторыми функциями и тут уже вопрос в функциях которые дадут ИИ.

Если ИИ сортирует картошку то самое страшное что он может сделать это перегореть по собственной инциативе.

Если ИИ вручить автомат и отправить громить все вокруг то вообщем то товарищи которые делали ИИ должны взять на себя ответственность.

Скорее всего ИИ если и появится то это Банки(серваки с ИИ и то врядли), Космос(устранение неполадок в runtime /*R2D2*/), Атомные станции(кто же в реактор по свой воли из живых полезет)

/*
Буш ты мудак
Амерам пора бы завязывать уже мечтать про Терминаторов потому что получится скорее всего эффект обезьяны с гранатой
*/


 
Nous Mellon ©   (2004-05-12 07:12) [38]


>  [18] Gero ©   (11.05.04 22:14)

Накатал было большой пост по мотивам недавно прчитанной книги "Передача информации о человека", да не запостился блин. Второй раз влом катать одно скажу - выкини диск терминатора и пойди к Soft на сайт почитай местную литературу, там написано почему в ближайшие n лет из ИИ ничего кроме пылесоса так и не получится. :)


 
Gero ©   (2004-05-12 07:58) [39]


Nous Mellon ©   (12.05.04 07:12)
> в ближайшие n лет из ИИ ничего кроме
> пылесоса так и не получится

А я и не спорю этим.


 
Dmitriy O. ©   (2004-05-12 08:05) [40]

А зачем нужен ИИ ? Гораздо проще и гораздо выгоднее соединение живого мозга и процессора. Т.е. получение кибермозга Вот он путь по которому будет развиваться далее  человек и комп. Сплав программера и компа может творить чудеса.


 
Паниковский ©   (2004-05-12 08:23) [41]

Dmitriy O.
Цену фичи представляешш не только в деньгах?
Как это отразится на здоровье?


 
Drakon ©   (2004-05-12 15:17) [42]

>> Гораздо проще и гораздо выгоднее соединение живого мозга и процессора.

Такого просто нельзя допустить.


 
Drakon ©   (2004-05-12 15:17) [43]

>> Гораздо проще и гораздо выгоднее соединение живого мозга и процессора.

Такого просто нельзя допустить.


 
Danilka ©   (2004-05-12 15:26) [44]

[43] Drakon ©   (12.05.04 15:17)
Ты-то что переживаешь, все равно ненавистный Борланд этим занимацца не будет?
:))


 
copyr25 ©   (2004-05-12 18:17) [45]

Что касается ИИ, то, возможно, его к-нить и создадут.
Как очень эффективный автомат. Собственно теперешние
компьютеры, ведь, именно эффективные автоматы, слуги,
счетные машины, безошибочно и быстро расчитывающие то,
в чем человек будет медлителен и, возможно, ошибется.

Но, насколько я понимаю, вопрос был задан не в перспективе ИИ,
а в смысле искусственного разума.

Вот этого человек никогда не создастъ.

Потому, что сам является "автоматом", но в более сведущих руках.
Интеллект и разум - это также различно, как команда и изучение.
Как солдат и студент.

Солдат может при известной подготовке и опыте создать только
подобного себе солдата.

Студента воспитает лишь профессор.

(полагаю, что немного о философии реализации я высказался:))


 
Thor ©   (2004-05-12 19:09) [46]


> Algol   (12.05.04 00:21) [33]

не-а.
чтобы понять сущность того, к чему ожет привести ИИ, как раз Лема и надо читать.
если читал всего Лема, то вспомни "Как Эрг Самовозбудитель Бледнотика победил".
там же говорится, что роботы сошли с ума....


 
DiamondShark ©   (2004-05-12 19:10) [47]


> kaif ©   (11.05.04 21:08) [7]

А если для "чудиков" реализовать механизм мутаций и отбора, то не понадобятся даже профессиональные программисты. Достаточно сформулировать критерий отбора.


 
Drakon ©   (2004-05-12 19:15) [48]

>> все равно ненавистный Борланд этим занимацца не будет?
А откуда ты знаешь что не будет? От этих буржуев можно всё ожидать. Они ради денег могут хоть людей убивать. И даже создавать программы ИИ для управления военными роботами, ядерными ракетами и другим оружием массового поражения.


 
Thor ©   (2004-05-12 19:15) [49]


> DiamondShark ©   (12.05.04 19:10) [47]

только не говори, что критерий будет "Выжить".
если так, то это уже будет как по Дарвину и тогда окружающему миру непоздоровится.


 
Thor ©   (2004-05-12 19:16) [50]


> Drakon ©   (12.05.04 19:15) [48]

а нафига ядерной боеголовке система ИИ?
чтобы ее на подлете могли переубедить не взрываться?
хех.
кстати, у нас программы для ядерных ракет на асме пишут :)


 
DiamondShark ©   (2004-05-12 19:21) [51]

Gero ©   (11.05.04 21:46) [14]

> Nous Mellon ©   (11.05.04 20:46)

Скорость - во много раз выше.
Попробуй поскладывать в уме большие числа - сколько времени тебе потребуется?
А теперь подумай, сколько времени потребуется компьютеру.


А теперь представь себе компьютер, скажем, идентифицирующий голос знакомого человека на фоне, скажем, звука кислотной дискотеки.


 
DiamondShark ©   (2004-05-12 19:28) [52]


> Если ИИ вручить автомат и отправить громить все вокруг

ИМХО, для этого никакого *И не требуется. Даже наоборот...
;-)


 
Gero ©   (2004-05-12 20:30) [53]


Thor ©   (12.05.04 19:16)
> а нафига ядерной боеголовке система ИИ?

Чтобы он сама решала где ей взрываться :)

DiamondShark ©   (12.05.04 19:21)
> А теперь представь себе компьютер, скажем, идентифицирующий
> голос знакомого человека на фоне, скажем, звука кислотной
> дискотеки.

Представил. Что дальше?


 
Thor ©   (2004-05-12 21:28) [54]


> Gero ©   (12.05.04 20:30) [53]

ага, проснется в ней дух исследования и полетит она не на вражью страну, а в открытый космос...


 
Gero ©   (2004-05-12 21:30) [55]


> Thor ©   (12.05.04 21:28)

Или на свою страну полетит. За то, что с ней плохо обращались :)


 
Resina   (2004-05-18 17:03) [56]

Анекдот знаете? Решили программеры задать суперкомпьютеру вопрос: есть ли бог. Он думал несколько суток, выдал сообщение: "Недостаточно информации, подключите меня ко всем мощнейшим компьютерам планеты". Подключили, задали тот же вопрос. После длительной обработки данных объявляет: "Недостаточно данных, подсоедините меня ко всем компьютерам вообще". Ученым было очень трудно это сделать, но подключили, спрашивают: "Есть ли бог?" Опять ответ: "Недостаточно ресурсов, подключите меня ко всем периферийным устройствам мира". Программеры это выполнили, теперь он запросил подключение ко всем электронным устройствам. Подключили, вводят вопрос: "Есть ли бог на Земле?" -- он пожужжал немного и отвечает: "Теперь есть".

Очень поучительный анекдот.


 
MOA   (2004-05-18 18:11) [57]

Народ, кто желает пообщаться по Лему - открылся русский форум на его официальном сайте (там форумы польский, английский и теперь русский.
Ссылка:
http://www.lem.pl/cgi-bin/yabb/YaBB.cgi?board=russian_cat
Только раскладку каждый раз при просмотре/ответе на 1251 приходится менять. Заходите - а то на русском скучновато.

По поводу ИИ с точки зрения философии - моё скромное мнение:
1. Необходимо ли для того, чтобы ИИ был действительно интеллектом его осознание себя? Если да - каким образом это реализовать?
2. Необходимы ли органы чувств? Сколько их должно быть - например, достаточно ли одного? Или всё же нужно минимум 2 (3-3...)?
3. Если ИИ будет обладать органами чувств и осознавать себя - как нам это узнать и в этом удостовериться?
4. Если мы убедимся, что созданный ИИ всё же осознаёт своё существование - как его потом выключить? Что он будет делать, когда узнает, что сделаны превосходящие его ИИ следующего поколения? В чём он будет видеть смысл своего бытия? - не сделаем ли мы нечто ужасное - сознание, страдающее от осознания своей искусственности (сделан по прихоти) и бессмысленности?
Тут впрям, некоторые ссылки на Лема не повредили бы.


 
хм ©   (2004-05-18 18:50) [58]

>1. Необходимо ли для того, чтобы ИИ был действительно >интеллектом его осознание себя? Если да - каким образом это >реализовать?
Нет, необязательно, но интеллект выше уровня мухи осознавать себя должен. Это побочный эффект инстинкта самосохранения.
>2. Необходимы ли органы чувств? Сколько их должно быть - >например, достаточно ли одного? Или всё же нужно минимум 2 (3-3...)?
Можно даже использовать временные органы чувств. Подключили - отключили, а далше он это все переваривает.
>Если ИИ будет обладать органами чувств и осознавать себя - как >нам это узнать и в этом удостовериться
Спросить. :). Например, разъединить систему на две части ненадолго, потом спросить, что с ним было.
>сознание, страдающее от осознания своей искусственности (сделан >по прихоти) и бессмысленности?
Человек страдает от химии, происходяещей в мозгу. Сами нейросети только запускают процесс выделения гормонов. Страдать он будет, если только мы этого захотим.


 
Cerber ©   (2004-05-18 18:59) [59]

Весь в меня пошёл )))))))))))))))))))))))(Soft)


 
Cerber ©   (2004-05-18 18:59) [60]

Весь в меня пошёл )))))))))))))))))))))))(Soft)


 
MOA   (2004-05-18 19:14) [61]

>Страдать он будет, если только мы этого захотим.
Так вот именно это и имеется в виду. Совершенно неважен конкретный механизм (химия, эл. импульсы или ещё что) - важен результат. Так вот, необходимо ли нам при создании ИИ этого захотеть - вот в этом и вопрос.
По поводу осознания себя мухой - хм... Т.е Вы уверены, что муха обладает интеллектом? Т.е. мы стремимся сделать что-то интеллектуально подобное интеллекту мухи? Если именно в этом и есть наша цель - да, действительно, все эти вопросы беспокоить не должны.


 
Igorek ©   (2004-05-19 14:30) [62]

Имхо, ИИ надо делать как ребенка (в смысле сначала тупого, а потом воспитывать). Что воспитаем, то и будем иметь.
---
Опасно это очень...



Страницы: 1 2 вся ветка

Текущий архив: 2004.06.06;
Скачать: CL | DM;

Наверх




Память: 0.65 MB
Время: 0.045 c
8-1080326281
Delpher_Gray
2004-03-26 21:38
2004.06.06
DirectX 3D - прозрачность вершин


14-1085085506
тихий вовочка
2004-05-21 00:38
2004.06.06
глупые вопросы по проектированию


14-1084966082
ORMADA
2004-05-19 15:28
2004.06.06
Разделение прав доступа


1-1085386777
Tex
2004-05-24 12:19
2004.06.06
Сжатие графического файла


1-1085549054
Vilux
2004-05-26 09:24
2004.06.06
RichEdit->HTML