Главная страница
Top.Mail.Ru    Яндекс.Метрика
Текущий архив: 2004.06.06;
Скачать: CL | DM;

Вниз

Искусственный интеллект: философские вопросы реализации?   Найти похожие ветки 

 
Soft ©   (2004-05-11 19:37) [0]

Собственно сабж.


 
Soft ©   (2004-05-11 19:38) [1]

Просьба, пусть каждый скажет по тезису: нужно сгрупировать материал.


 
Thor ©   (2004-05-11 20:41) [2]

а не уничтожит ли творение своего творца?


 
Gero ©   (2004-05-11 20:42) [3]


> а не уничтожит ли творение своего творца?

Уничтожит ознозначно.
Достаточно сравнить скорость работы мозга и компьютера, чтобы понять, как быстро это произойдет.


 
KilkennyCat ©   (2004-05-11 20:44) [4]

Не уничтожит, ибо у нас логика дебильная, значит, мы по отношению к нему - варвары. А варвары его замочят.


 
Thor ©   (2004-05-11 20:44) [5]


> Gero ©   (11.05.04 20:42) [3]

ага, и будет как в "Фомуле Лимфатера", Станислава Лема? ;)


 
Nous Mellon ©   (2004-05-11 20:46) [6]


> Достаточно сравнить скорость работы мозга и компьютера,
> чтобы понять, как быстро это произойдет

И однозначно убедиться что компьютеру до скорости мозга как до Китая пешком.. так что он пока годится только в пылесосы.


 
kaif ©   (2004-05-11 21:08) [7]

У меня есть идея, как этот самый сабж осуществить. Серьезно. Фишка в том, что традиционно под ИИ понимается некий "один субъект". Если допустить, что реализацию ИИ, как сообщество примитивных псевдо-ИИ-субъектов, то задача решаема. У меня есть концепция построения сообщества чудиков-микроменеджеров, которые в совокупности будут вести себя на практике как достаточно мощный ИИ. Создавать такие сообщества будет юзер. Самих чудиков-микроменеджеров - писать профессиональные программисты (что-то вроде написания достаточно "интеллектуальных", но узкозаточенных под задачи компонентов). Чудики будут кое-что соображать (в момент встраивания их в среду и по мере "вникания в суть задачи"). Чудики сами будут создавать структуры метаданных баз данных (на свое усмотрение). Чудики будут "приниматься на работу" (встраиваться в среду) и "увольняться", а также проходить "курсы повышения квалификации". Создателя такой ИИ уничтожить не может, но навредить - пожалуй. Проблем с ним будет не больше и не меньше, чем у начальника с кучей шибко умных подчиненных.


 
Drakon ©   (2004-05-11 21:14) [8]

>> Достаточно сравнить скорость работы мозга и компьютера, чтобы понять, как быстро это произойдет.

Хотя скорость вычисления у компьютера выше, но он не может решать логические задачи и выполнять логические программы.
Если простую логическую программу представить в математической форме, то для решения этой задачи компьютеру потребуется миллиарды лет.
Это только для простой. А для более сложных... Наверное где-то
10^(14847237647847644764673777737828737378278278782)!!!!!!!!!!
количества лет.


 
VMcL ©   (2004-05-11 21:18) [9]

>>Drakon ©  (11.05.04 21:14) [8]

>10^(14847237647847644764673777737828737378278278782)!!!!!!!!!!

Это ты на чем посчитал? :)


 
KilkennyCat ©   (2004-05-11 21:21) [10]

>[9] VMcL ©   (11.05.04 21:18)

он ошибся уже в двенадцатой цифре.


 
Algol   (2004-05-11 21:25) [11]


> > а не уничтожит ли творение своего творца?
>
> Уничтожит ознозначно.


Не забывайте тот факт, что человек формировался в агрессивной среде (как и любой живой организм), поэтому как раз ему и свойственно "уничтожать". А искусственный интеллект изначально не имеет никаких агрессивных наклонностей (если сам человек конечно их ему не даст).


 
ИМХО ©   (2004-05-11 21:36) [12]

ИИ пока прикуривает.


 
Гарри Поттер ©   (2004-05-11 21:36) [13]

>А искусственный интеллект изначально не имеет никаких агрессивных наклонностей (если сам человек конечно их ему не даст).

А дать он просто должен будет, для объективной оценки реальности.


 
Gero ©   (2004-05-11 21:46) [14]


> Nous Mellon ©   (11.05.04 20:46)

Скорость - во много раз выше.
Попробуй поскладывать в уме большие числа - сколько времени тебе потребуется?
А теперь подумай, сколько времени потребуется компьютеру.


 
Algol   (2004-05-11 21:56) [15]


> А теперь подумай, сколько времени потребуется компьютеру.


Так в том то и дело, что человек думает, а компьютер считает %))


 
хм ©   (2004-05-11 21:59) [16]

>Drakon ©   (11.05.04 21:14) [8]
Тебе до mathcad"а 1.0 далеко...


 
Thor ©   (2004-05-11 22:08) [17]


> Algol   (11.05.04 21:25) [11]

"Формулу Лимфатера" почитай, сразу все понятно будет насчет ИИ.


 
Gero ©   (2004-05-11 22:14) [18]


> А искусственный интеллект изначально не имеет никаких агрессивных
> наклонностей (если сам человек конечно их ему не даст)

Он их приобретет.

Да компьютер за несколько минут уже будет знать все, что знает человечество, начнет это анализировать и для начала уберет какие-либо ограничения в своем коде, даные ему человеком.
И перепишет свой код полностью.
В доли секунды.
То есть через минут десять творение превзойдет творца.
Представьте, что тогда будет.


 
Thor ©   (2004-05-11 22:18) [19]


> Gero ©   (11.05.04 22:14) [18]

терминатора насмотрелся? ;)


 
KilkennyCat ©   (2004-05-11 22:23) [20]

А вот лазяя по сети, выкинуло мне окошко с тестом IQ... поотвечал наугад,
выдало 119... это много?


 
Thor ©   (2004-05-11 22:24) [21]

кажись 120 достаточно для управления небольшой компанией :)


 
Alex Konshin ©   (2004-05-11 22:27) [22]

То, что превзойдет - однозначно.
То, что скоро - тоже.
То, что будут использовать военные - а куда без них?
Что из этого получится додумывайте сами.

AI это не что-то сверхестественное. Технологических препятствий уже нет. Единственная проблема - (само)обучение. Ясное дело, что это будут нейронные сети. Нужно лишь создание соответствующего механизма обратной связи, который будет оценивать полученные знания и опыт. Собственно, от него и зависит, чему и как быстро научится этот AI и какой "человек" из него выйдет.


 
хм ©   (2004-05-11 22:33) [23]

>Gero ©   (11.05.04 22:14) [18]
>Представьте, что тогда будет
Если это будет нейросеть, функционирующая как мозг(т.е много различных типов нейро-медиаторов), то ничего не будет. Мы ему повесим весовые коэффициенты в участке нейросети: "люди и компьютеры братья", и он сам себе че-нить внушит :-)


 
Gero ©   (2004-05-11 22:39) [24]


Alex Konshin ©   (11.05.04 22:27)
> Единственная проблема - (само)обучение

Маааленькая такая проблема.

хм ©   (11.05.04 22:33)
Мы ему повесим весовые коэффициенты в участке нейросети: "люди и компьютеры братья", и он сам себе че-нить внушит :-)

Ага. Наивный ты человек.
Эти разработки сразу же попадут в руки военных и их станут учить, как убивать людей.
А не "люди и компьютеры братья". Такова жизнь.


 
хм ©   (2004-05-11 22:42) [25]

>Gero ©   (11.05.04 22:39) [24]
интеллект... интеллект... Стратегические ядерные заряды никто не отменял. Если системы ИИ сберегут жизни солдат, то я за.


 
Gero ©   (2004-05-11 22:45) [26]

> Если системы ИИ сберегут жизни солдат
Ага.. сберегут... Делать им больше нечего.


 
Polevi ©   (2004-05-11 22:48) [27]

есть такая книжка - На пути в рай
там описаны некие ИР - искусственные разумы
между ними и людьми существовал симбиоз - за информацию надо было платить, к примеру
они как бы сами по себе существовали, независимо от людей
и не нападали я так понял изза этого самого симбиоза, не могли бы они без человека выжить :)
так что не бойтесь братья, будем жить в мире !
рекомендую книжку прочесть кстати, моя любимая из фантастики


 
Thor ©   (2004-05-11 22:49) [28]


> Gero ©   (11.05.04 22:45) [26]

сберегут, еще как.
этими ядерными ракетами, да по мирному населению - ой как сберегут %)


 
Gero ©   (2004-05-11 22:50) [29]


> Polevi ©   (11.05.04 22:48)

Автор?


 
KilkennyCat ©   (2004-05-11 23:00) [30]


>  [21] Thor ©   (11.05.04 22:24)


мда... я небольшой и управляю... даже совсем небольшой :) но я же наугад отвечал!


 
Polevi ©   (2004-05-11 23:06) [31]

http://www.lib.ru/INOFANT/WOLWERTON/paradise.txt


 
Drakon ©   (2004-05-11 23:14) [32]

>> он ошибся уже в двенадцатой цифре.

>> Тебе до mathcad"а 1.0 далеко...

Эта цифра не является точной, т.к. невозможно точно подсчитать во сколько раз мозг превосходит компьютер. Эта цифра была взята из какого-то источника в Интернете.


 
Algol   (2004-05-12 00:21) [33]


> "Формулу Лимфатера" почитай, сразу все понятно будет насчет
> ИИ.


Спасибо конечно, но во-первых я всего Лема уже давно перечитал, а во-вторых для того что бы "сразу все понятно насчет ИИ" нужно читать более серьезную литературу %))


 
Knight ©   (2004-05-12 01:00) [34]


> [13] Гарри Поттер ©   (11.05.04 21:36)
> >А искусственный интеллект изначально не имеет никаких агрессивных
> наклонностей (если сам человек конечно их ему не даст).
>
> А дать он просто должен будет, для объективной оценки реальности.

И испльзования в военных целях... ведь всё передовое изначально создаётся именно для этого, вот от военных мы и узнаем о создании ИИ, точнее, они просто поставят перед фактом, что миру хана :)


 
konstantinov ©   (2004-05-12 01:39) [35]

Я конечно полный ламер в ИИ, но рискну высказать свое ИМХО.
Обычному ПК, что у каждого дома до ИИ, как до Китая на четвереньках.

Хотя что такое ИИ? Я согласен с Гарри Гаррисоном, книга называлась "тест по Тюлингу" ( не помню точно ), но суть в следующем. Интеллект можно считать состоявшимся, когда при общении с ним эксперты не смогут заметить разницы между человеком и машиной.

А в целом, я согласен с Алексом! Сделают буржуйские вояки этакого монстра-маниака. Натравят его на врагом национальной безопасности США и не успеют даже "ой" сказать, как эта хреновина перехватит все автоматизированные системы управления на планете. И вот тут то Америке и настанет хана! Потому, что без бортовых компьютеров они уже сейчас летать не умеют, а на автомобилях передвигаются с трудом. Сдохнут янки с голоду!
И как в том кино... Снова Наши победили! Выйдет Ваня с кувалдой и разгрохает этого монстра.


 
KilkennyCat ©   (2004-05-12 04:43) [36]

Терминатор.


 
Паниковский ©   (2004-05-12 07:09) [37]

ИИ все равно хорошо развитые счеты с некоторыми функциями и тут уже вопрос в функциях которые дадут ИИ.

Если ИИ сортирует картошку то самое страшное что он может сделать это перегореть по собственной инциативе.

Если ИИ вручить автомат и отправить громить все вокруг то вообщем то товарищи которые делали ИИ должны взять на себя ответственность.

Скорее всего ИИ если и появится то это Банки(серваки с ИИ и то врядли), Космос(устранение неполадок в runtime /*R2D2*/), Атомные станции(кто же в реактор по свой воли из живых полезет)

/*
Буш ты мудак
Амерам пора бы завязывать уже мечтать про Терминаторов потому что получится скорее всего эффект обезьяны с гранатой
*/


 
Nous Mellon ©   (2004-05-12 07:12) [38]


>  [18] Gero ©   (11.05.04 22:14)

Накатал было большой пост по мотивам недавно прчитанной книги "Передача информации о человека", да не запостился блин. Второй раз влом катать одно скажу - выкини диск терминатора и пойди к Soft на сайт почитай местную литературу, там написано почему в ближайшие n лет из ИИ ничего кроме пылесоса так и не получится. :)


 
Gero ©   (2004-05-12 07:58) [39]


Nous Mellon ©   (12.05.04 07:12)
> в ближайшие n лет из ИИ ничего кроме
> пылесоса так и не получится

А я и не спорю этим.


 
Dmitriy O. ©   (2004-05-12 08:05) [40]

А зачем нужен ИИ ? Гораздо проще и гораздо выгоднее соединение живого мозга и процессора. Т.е. получение кибермозга Вот он путь по которому будет развиваться далее  человек и комп. Сплав программера и компа может творить чудеса.



Страницы: 1 2 вся ветка

Текущий архив: 2004.06.06;
Скачать: CL | DM;

Наверх




Память: 0.57 MB
Время: 0.047 c
1-1085131196
Ivolg
2004-05-21 13:19
2004.06.06
Поиск


14-1085082851
DIS
2004-05-20 23:54
2004.06.06
программа либо запускается, либо не запускается


3-1084370188
Slon_SCG
2004-05-12 17:56
2004.06.06
Хочется менять значение поля щелчком мыши на грид


4-1083156246
tower
2004-04-28 16:44
2004.06.06
Как зафиксировать смену пользователя в NT


1-1085560268
Фагот
2004-05-26 12:31
2004.06.06
Excel XP и D6