Главная страница
    Top.Mail.Ru    Яндекс.Метрика
Форум: "Потрепаться";
Текущий архив: 2004.06.06;
Скачать: [xml.tar.bz2];

Вниз

Искусственный интеллект: философские вопросы реализации?   Найти похожие ветки 

 
Soft ©   (2004-05-11 19:37) [0]

Собственно сабж.


 
Soft ©   (2004-05-11 19:38) [1]

Просьба, пусть каждый скажет по тезису: нужно сгрупировать материал.


 
Thor ©   (2004-05-11 20:41) [2]

а не уничтожит ли творение своего творца?


 
Gero ©   (2004-05-11 20:42) [3]


> а не уничтожит ли творение своего творца?

Уничтожит ознозначно.
Достаточно сравнить скорость работы мозга и компьютера, чтобы понять, как быстро это произойдет.


 
KilkennyCat ©   (2004-05-11 20:44) [4]

Не уничтожит, ибо у нас логика дебильная, значит, мы по отношению к нему - варвары. А варвары его замочят.


 
Thor ©   (2004-05-11 20:44) [5]


> Gero ©   (11.05.04 20:42) [3]

ага, и будет как в "Фомуле Лимфатера", Станислава Лема? ;)


 
Nous Mellon ©   (2004-05-11 20:46) [6]


> Достаточно сравнить скорость работы мозга и компьютера,
> чтобы понять, как быстро это произойдет

И однозначно убедиться что компьютеру до скорости мозга как до Китая пешком.. так что он пока годится только в пылесосы.


 
kaif ©   (2004-05-11 21:08) [7]

У меня есть идея, как этот самый сабж осуществить. Серьезно. Фишка в том, что традиционно под ИИ понимается некий "один субъект". Если допустить, что реализацию ИИ, как сообщество примитивных псевдо-ИИ-субъектов, то задача решаема. У меня есть концепция построения сообщества чудиков-микроменеджеров, которые в совокупности будут вести себя на практике как достаточно мощный ИИ. Создавать такие сообщества будет юзер. Самих чудиков-микроменеджеров - писать профессиональные программисты (что-то вроде написания достаточно "интеллектуальных", но узкозаточенных под задачи компонентов). Чудики будут кое-что соображать (в момент встраивания их в среду и по мере "вникания в суть задачи"). Чудики сами будут создавать структуры метаданных баз данных (на свое усмотрение). Чудики будут "приниматься на работу" (встраиваться в среду) и "увольняться", а также проходить "курсы повышения квалификации". Создателя такой ИИ уничтожить не может, но навредить - пожалуй. Проблем с ним будет не больше и не меньше, чем у начальника с кучей шибко умных подчиненных.


 
Drakon ©   (2004-05-11 21:14) [8]

>> Достаточно сравнить скорость работы мозга и компьютера, чтобы понять, как быстро это произойдет.

Хотя скорость вычисления у компьютера выше, но он не может решать логические задачи и выполнять логические программы.
Если простую логическую программу представить в математической форме, то для решения этой задачи компьютеру потребуется миллиарды лет.
Это только для простой. А для более сложных... Наверное где-то
10^(14847237647847644764673777737828737378278278782)!!!!!!!!!!
количества лет.


 
VMcL ©   (2004-05-11 21:18) [9]

>>Drakon ©  (11.05.04 21:14) [8]

>10^(14847237647847644764673777737828737378278278782)!!!!!!!!!!

Это ты на чем посчитал? :)


 
KilkennyCat ©   (2004-05-11 21:21) [10]

>[9] VMcL ©   (11.05.04 21:18)

он ошибся уже в двенадцатой цифре.


 
Algol   (2004-05-11 21:25) [11]


> > а не уничтожит ли творение своего творца?
>
> Уничтожит ознозначно.


Не забывайте тот факт, что человек формировался в агрессивной среде (как и любой живой организм), поэтому как раз ему и свойственно "уничтожать". А искусственный интеллект изначально не имеет никаких агрессивных наклонностей (если сам человек конечно их ему не даст).


 
ИМХО ©   (2004-05-11 21:36) [12]

ИИ пока прикуривает.


 
Гарри Поттер ©   (2004-05-11 21:36) [13]

>А искусственный интеллект изначально не имеет никаких агрессивных наклонностей (если сам человек конечно их ему не даст).

А дать он просто должен будет, для объективной оценки реальности.


 
Gero ©   (2004-05-11 21:46) [14]


> Nous Mellon ©   (11.05.04 20:46)

Скорость - во много раз выше.
Попробуй поскладывать в уме большие числа - сколько времени тебе потребуется?
А теперь подумай, сколько времени потребуется компьютеру.


 
Algol   (2004-05-11 21:56) [15]


> А теперь подумай, сколько времени потребуется компьютеру.


Так в том то и дело, что человек думает, а компьютер считает %))


 
хм ©   (2004-05-11 21:59) [16]

>Drakon ©   (11.05.04 21:14) [8]
Тебе до mathcad"а 1.0 далеко...


 
Thor ©   (2004-05-11 22:08) [17]


> Algol   (11.05.04 21:25) [11]

"Формулу Лимфатера" почитай, сразу все понятно будет насчет ИИ.


 
Gero ©   (2004-05-11 22:14) [18]


> А искусственный интеллект изначально не имеет никаких агрессивных
> наклонностей (если сам человек конечно их ему не даст)

Он их приобретет.

Да компьютер за несколько минут уже будет знать все, что знает человечество, начнет это анализировать и для начала уберет какие-либо ограничения в своем коде, даные ему человеком.
И перепишет свой код полностью.
В доли секунды.
То есть через минут десять творение превзойдет творца.
Представьте, что тогда будет.


 
Thor ©   (2004-05-11 22:18) [19]


> Gero ©   (11.05.04 22:14) [18]

терминатора насмотрелся? ;)


 
KilkennyCat ©   (2004-05-11 22:23) [20]

А вот лазяя по сети, выкинуло мне окошко с тестом IQ... поотвечал наугад,
выдало 119... это много?


 
Thor ©   (2004-05-11 22:24) [21]

кажись 120 достаточно для управления небольшой компанией :)


 
Alex Konshin ©   (2004-05-11 22:27) [22]

То, что превзойдет - однозначно.
То, что скоро - тоже.
То, что будут использовать военные - а куда без них?
Что из этого получится додумывайте сами.

AI это не что-то сверхестественное. Технологических препятствий уже нет. Единственная проблема - (само)обучение. Ясное дело, что это будут нейронные сети. Нужно лишь создание соответствующего механизма обратной связи, который будет оценивать полученные знания и опыт. Собственно, от него и зависит, чему и как быстро научится этот AI и какой "человек" из него выйдет.


 
хм ©   (2004-05-11 22:33) [23]

>Gero ©   (11.05.04 22:14) [18]
>Представьте, что тогда будет
Если это будет нейросеть, функционирующая как мозг(т.е много различных типов нейро-медиаторов), то ничего не будет. Мы ему повесим весовые коэффициенты в участке нейросети: "люди и компьютеры братья", и он сам себе че-нить внушит :-)


 
Gero ©   (2004-05-11 22:39) [24]


Alex Konshin ©   (11.05.04 22:27)
> Единственная проблема - (само)обучение

Маааленькая такая проблема.

хм ©   (11.05.04 22:33)
Мы ему повесим весовые коэффициенты в участке нейросети: "люди и компьютеры братья", и он сам себе че-нить внушит :-)

Ага. Наивный ты человек.
Эти разработки сразу же попадут в руки военных и их станут учить, как убивать людей.
А не "люди и компьютеры братья". Такова жизнь.


 
хм ©   (2004-05-11 22:42) [25]

>Gero ©   (11.05.04 22:39) [24]
интеллект... интеллект... Стратегические ядерные заряды никто не отменял. Если системы ИИ сберегут жизни солдат, то я за.


 
Gero ©   (2004-05-11 22:45) [26]

> Если системы ИИ сберегут жизни солдат
Ага.. сберегут... Делать им больше нечего.


 
Polevi ©   (2004-05-11 22:48) [27]

есть такая книжка - На пути в рай
там описаны некие ИР - искусственные разумы
между ними и людьми существовал симбиоз - за информацию надо было платить, к примеру
они как бы сами по себе существовали, независимо от людей
и не нападали я так понял изза этого самого симбиоза, не могли бы они без человека выжить :)
так что не бойтесь братья, будем жить в мире !
рекомендую книжку прочесть кстати, моя любимая из фантастики


 
Thor ©   (2004-05-11 22:49) [28]


> Gero ©   (11.05.04 22:45) [26]

сберегут, еще как.
этими ядерными ракетами, да по мирному населению - ой как сберегут %)


 
Gero ©   (2004-05-11 22:50) [29]


> Polevi ©   (11.05.04 22:48)

Автор?


 
KilkennyCat ©   (2004-05-11 23:00) [30]


>  [21] Thor ©   (11.05.04 22:24)


мда... я небольшой и управляю... даже совсем небольшой :) но я же наугад отвечал!


 
Polevi ©   (2004-05-11 23:06) [31]

http://www.lib.ru/INOFANT/WOLWERTON/paradise.txt


 
Drakon ©   (2004-05-11 23:14) [32]

>> он ошибся уже в двенадцатой цифре.

>> Тебе до mathcad"а 1.0 далеко...

Эта цифра не является точной, т.к. невозможно точно подсчитать во сколько раз мозг превосходит компьютер. Эта цифра была взята из какого-то источника в Интернете.


 
Algol   (2004-05-12 00:21) [33]


> "Формулу Лимфатера" почитай, сразу все понятно будет насчет
> ИИ.


Спасибо конечно, но во-первых я всего Лема уже давно перечитал, а во-вторых для того что бы "сразу все понятно насчет ИИ" нужно читать более серьезную литературу %))


 
Knight ©   (2004-05-12 01:00) [34]


> [13] Гарри Поттер ©   (11.05.04 21:36)
> >А искусственный интеллект изначально не имеет никаких агрессивных
> наклонностей (если сам человек конечно их ему не даст).
>
> А дать он просто должен будет, для объективной оценки реальности.

И испльзования в военных целях... ведь всё передовое изначально создаётся именно для этого, вот от военных мы и узнаем о создании ИИ, точнее, они просто поставят перед фактом, что миру хана :)


 
konstantinov ©   (2004-05-12 01:39) [35]

Я конечно полный ламер в ИИ, но рискну высказать свое ИМХО.
Обычному ПК, что у каждого дома до ИИ, как до Китая на четвереньках.

Хотя что такое ИИ? Я согласен с Гарри Гаррисоном, книга называлась "тест по Тюлингу" ( не помню точно ), но суть в следующем. Интеллект можно считать состоявшимся, когда при общении с ним эксперты не смогут заметить разницы между человеком и машиной.

А в целом, я согласен с Алексом! Сделают буржуйские вояки этакого монстра-маниака. Натравят его на врагом национальной безопасности США и не успеют даже "ой" сказать, как эта хреновина перехватит все автоматизированные системы управления на планете. И вот тут то Америке и настанет хана! Потому, что без бортовых компьютеров они уже сейчас летать не умеют, а на автомобилях передвигаются с трудом. Сдохнут янки с голоду!
И как в том кино... Снова Наши победили! Выйдет Ваня с кувалдой и разгрохает этого монстра.


 
KilkennyCat ©   (2004-05-12 04:43) [36]

Терминатор.


 
Паниковский ©   (2004-05-12 07:09) [37]

ИИ все равно хорошо развитые счеты с некоторыми функциями и тут уже вопрос в функциях которые дадут ИИ.

Если ИИ сортирует картошку то самое страшное что он может сделать это перегореть по собственной инциативе.

Если ИИ вручить автомат и отправить громить все вокруг то вообщем то товарищи которые делали ИИ должны взять на себя ответственность.

Скорее всего ИИ если и появится то это Банки(серваки с ИИ и то врядли), Космос(устранение неполадок в runtime /*R2D2*/), Атомные станции(кто же в реактор по свой воли из живых полезет)

/*
Буш ты мудак
Амерам пора бы завязывать уже мечтать про Терминаторов потому что получится скорее всего эффект обезьяны с гранатой
*/


 
Nous Mellon ©   (2004-05-12 07:12) [38]


>  [18] Gero ©   (11.05.04 22:14)

Накатал было большой пост по мотивам недавно прчитанной книги "Передача информации о человека", да не запостился блин. Второй раз влом катать одно скажу - выкини диск терминатора и пойди к Soft на сайт почитай местную литературу, там написано почему в ближайшие n лет из ИИ ничего кроме пылесоса так и не получится. :)


 
Gero ©   (2004-05-12 07:58) [39]


Nous Mellon ©   (12.05.04 07:12)
> в ближайшие n лет из ИИ ничего кроме
> пылесоса так и не получится

А я и не спорю этим.


 
Dmitriy O. ©   (2004-05-12 08:05) [40]

А зачем нужен ИИ ? Гораздо проще и гораздо выгоднее соединение живого мозга и процессора. Т.е. получение кибермозга Вот он путь по которому будет развиваться далее  человек и комп. Сплав программера и компа может творить чудеса.


 
Паниковский ©   (2004-05-12 08:23) [41]

Dmitriy O.
Цену фичи представляешш не только в деньгах?
Как это отразится на здоровье?


 
Drakon ©   (2004-05-12 15:17) [42]

>> Гораздо проще и гораздо выгоднее соединение живого мозга и процессора.

Такого просто нельзя допустить.


 
Drakon ©   (2004-05-12 15:17) [43]

>> Гораздо проще и гораздо выгоднее соединение живого мозга и процессора.

Такого просто нельзя допустить.


 
Danilka ©   (2004-05-12 15:26) [44]

[43] Drakon ©   (12.05.04 15:17)
Ты-то что переживаешь, все равно ненавистный Борланд этим занимацца не будет?
:))


 
copyr25 ©   (2004-05-12 18:17) [45]

Что касается ИИ, то, возможно, его к-нить и создадут.
Как очень эффективный автомат. Собственно теперешние
компьютеры, ведь, именно эффективные автоматы, слуги,
счетные машины, безошибочно и быстро расчитывающие то,
в чем человек будет медлителен и, возможно, ошибется.

Но, насколько я понимаю, вопрос был задан не в перспективе ИИ,
а в смысле искусственного разума.

Вот этого человек никогда не создастъ.

Потому, что сам является "автоматом", но в более сведущих руках.
Интеллект и разум - это также различно, как команда и изучение.
Как солдат и студент.

Солдат может при известной подготовке и опыте создать только
подобного себе солдата.

Студента воспитает лишь профессор.

(полагаю, что немного о философии реализации я высказался:))


 
Thor ©   (2004-05-12 19:09) [46]


> Algol   (12.05.04 00:21) [33]

не-а.
чтобы понять сущность того, к чему ожет привести ИИ, как раз Лема и надо читать.
если читал всего Лема, то вспомни "Как Эрг Самовозбудитель Бледнотика победил".
там же говорится, что роботы сошли с ума....


 
DiamondShark ©   (2004-05-12 19:10) [47]


> kaif ©   (11.05.04 21:08) [7]

А если для "чудиков" реализовать механизм мутаций и отбора, то не понадобятся даже профессиональные программисты. Достаточно сформулировать критерий отбора.


 
Drakon ©   (2004-05-12 19:15) [48]

>> все равно ненавистный Борланд этим занимацца не будет?
А откуда ты знаешь что не будет? От этих буржуев можно всё ожидать. Они ради денег могут хоть людей убивать. И даже создавать программы ИИ для управления военными роботами, ядерными ракетами и другим оружием массового поражения.


 
Thor ©   (2004-05-12 19:15) [49]


> DiamondShark ©   (12.05.04 19:10) [47]

только не говори, что критерий будет "Выжить".
если так, то это уже будет как по Дарвину и тогда окружающему миру непоздоровится.


 
Thor ©   (2004-05-12 19:16) [50]


> Drakon ©   (12.05.04 19:15) [48]

а нафига ядерной боеголовке система ИИ?
чтобы ее на подлете могли переубедить не взрываться?
хех.
кстати, у нас программы для ядерных ракет на асме пишут :)


 
DiamondShark ©   (2004-05-12 19:21) [51]

Gero ©   (11.05.04 21:46) [14]

> Nous Mellon ©   (11.05.04 20:46)

Скорость - во много раз выше.
Попробуй поскладывать в уме большие числа - сколько времени тебе потребуется?
А теперь подумай, сколько времени потребуется компьютеру.


А теперь представь себе компьютер, скажем, идентифицирующий голос знакомого человека на фоне, скажем, звука кислотной дискотеки.


 
DiamondShark ©   (2004-05-12 19:28) [52]


> Если ИИ вручить автомат и отправить громить все вокруг

ИМХО, для этого никакого *И не требуется. Даже наоборот...
;-)


 
Gero ©   (2004-05-12 20:30) [53]


Thor ©   (12.05.04 19:16)
> а нафига ядерной боеголовке система ИИ?

Чтобы он сама решала где ей взрываться :)

DiamondShark ©   (12.05.04 19:21)
> А теперь представь себе компьютер, скажем, идентифицирующий
> голос знакомого человека на фоне, скажем, звука кислотной
> дискотеки.

Представил. Что дальше?


 
Thor ©   (2004-05-12 21:28) [54]


> Gero ©   (12.05.04 20:30) [53]

ага, проснется в ней дух исследования и полетит она не на вражью страну, а в открытый космос...


 
Gero ©   (2004-05-12 21:30) [55]


> Thor ©   (12.05.04 21:28)

Или на свою страну полетит. За то, что с ней плохо обращались :)


 
Resina   (2004-05-18 17:03) [56]

Анекдот знаете? Решили программеры задать суперкомпьютеру вопрос: есть ли бог. Он думал несколько суток, выдал сообщение: "Недостаточно информации, подключите меня ко всем мощнейшим компьютерам планеты". Подключили, задали тот же вопрос. После длительной обработки данных объявляет: "Недостаточно данных, подсоедините меня ко всем компьютерам вообще". Ученым было очень трудно это сделать, но подключили, спрашивают: "Есть ли бог?" Опять ответ: "Недостаточно ресурсов, подключите меня ко всем периферийным устройствам мира". Программеры это выполнили, теперь он запросил подключение ко всем электронным устройствам. Подключили, вводят вопрос: "Есть ли бог на Земле?" -- он пожужжал немного и отвечает: "Теперь есть".

Очень поучительный анекдот.


 
MOA   (2004-05-18 18:11) [57]

Народ, кто желает пообщаться по Лему - открылся русский форум на его официальном сайте (там форумы польский, английский и теперь русский.
Ссылка:
http://www.lem.pl/cgi-bin/yabb/YaBB.cgi?board=russian_cat
Только раскладку каждый раз при просмотре/ответе на 1251 приходится менять. Заходите - а то на русском скучновато.

По поводу ИИ с точки зрения философии - моё скромное мнение:
1. Необходимо ли для того, чтобы ИИ был действительно интеллектом его осознание себя? Если да - каким образом это реализовать?
2. Необходимы ли органы чувств? Сколько их должно быть - например, достаточно ли одного? Или всё же нужно минимум 2 (3-3...)?
3. Если ИИ будет обладать органами чувств и осознавать себя - как нам это узнать и в этом удостовериться?
4. Если мы убедимся, что созданный ИИ всё же осознаёт своё существование - как его потом выключить? Что он будет делать, когда узнает, что сделаны превосходящие его ИИ следующего поколения? В чём он будет видеть смысл своего бытия? - не сделаем ли мы нечто ужасное - сознание, страдающее от осознания своей искусственности (сделан по прихоти) и бессмысленности?
Тут впрям, некоторые ссылки на Лема не повредили бы.


 
хм ©   (2004-05-18 18:50) [58]

>1. Необходимо ли для того, чтобы ИИ был действительно >интеллектом его осознание себя? Если да - каким образом это >реализовать?
Нет, необязательно, но интеллект выше уровня мухи осознавать себя должен. Это побочный эффект инстинкта самосохранения.
>2. Необходимы ли органы чувств? Сколько их должно быть - >например, достаточно ли одного? Или всё же нужно минимум 2 (3-3...)?
Можно даже использовать временные органы чувств. Подключили - отключили, а далше он это все переваривает.
>Если ИИ будет обладать органами чувств и осознавать себя - как >нам это узнать и в этом удостовериться
Спросить. :). Например, разъединить систему на две части ненадолго, потом спросить, что с ним было.
>сознание, страдающее от осознания своей искусственности (сделан >по прихоти) и бессмысленности?
Человек страдает от химии, происходяещей в мозгу. Сами нейросети только запускают процесс выделения гормонов. Страдать он будет, если только мы этого захотим.


 
Cerber ©   (2004-05-18 18:59) [59]

Весь в меня пошёл )))))))))))))))))))))))(Soft)


 
Cerber ©   (2004-05-18 18:59) [60]

Весь в меня пошёл )))))))))))))))))))))))(Soft)


 
MOA   (2004-05-18 19:14) [61]

>Страдать он будет, если только мы этого захотим.
Так вот именно это и имеется в виду. Совершенно неважен конкретный механизм (химия, эл. импульсы или ещё что) - важен результат. Так вот, необходимо ли нам при создании ИИ этого захотеть - вот в этом и вопрос.
По поводу осознания себя мухой - хм... Т.е Вы уверены, что муха обладает интеллектом? Т.е. мы стремимся сделать что-то интеллектуально подобное интеллекту мухи? Если именно в этом и есть наша цель - да, действительно, все эти вопросы беспокоить не должны.


 
Igorek ©   (2004-05-19 14:30) [62]

Имхо, ИИ надо делать как ребенка (в смысле сначала тупого, а потом воспитывать). Что воспитаем, то и будем иметь.
---
Опасно это очень...



Страницы: 1 2 вся ветка

Форум: "Потрепаться";
Текущий архив: 2004.06.06;
Скачать: [xml.tar.bz2];

Наверх





Память: 0.62 MB
Время: 0.051 c
8-1080224905
Mihey
2004-03-25 17:28
2004.06.06
В поисках пикселя - benchmark


4-1082798392
BVictor
2004-04-24 13:19
2004.06.06
Смена разрешения


4-1082555579
lock95
2004-04-21 17:52
2004.06.06
Как получить доступ к своему же файлу?


1-1085229355
Jiurasdfgfr
2004-05-22 16:35
2004.06.06
Как Перебрать все окна MDI приложения 1-го типа?


14-1084861551
anstrem
2004-05-18 10:25
2004.06.06
Есть место для программиста Delphi в Москве





Afrikaans Albanian Arabic Armenian Azerbaijani Basque Belarusian Bulgarian Catalan Chinese (Simplified) Chinese (Traditional) Croatian Czech Danish Dutch English Estonian Filipino Finnish French
Galician Georgian German Greek Haitian Creole Hebrew Hindi Hungarian Icelandic Indonesian Irish Italian Japanese Korean Latvian Lithuanian Macedonian Malay Maltese Norwegian
Persian Polish Portuguese Romanian Russian Serbian Slovak Slovenian Spanish Swahili Swedish Thai Turkish Ukrainian Urdu Vietnamese Welsh Yiddish Bengali Bosnian
Cebuano Esperanto Gujarati Hausa Hmong Igbo Javanese Kannada Khmer Lao Latin Maori Marathi Mongolian Nepali Punjabi Somali Tamil Telugu Yoruba
Zulu
Английский Французский Немецкий Итальянский Португальский Русский Испанский