Форум: "Потрепаться";
Текущий архив: 2004.06.06;
Скачать: [xml.tar.bz2];
ВнизИскусственный интеллект: философские вопросы реализации? Найти похожие ветки
← →
Soft © (2004-05-11 19:37) [0]Собственно сабж.
← →
Soft © (2004-05-11 19:38) [1]Просьба, пусть каждый скажет по тезису: нужно сгрупировать материал.
← →
Thor © (2004-05-11 20:41) [2]а не уничтожит ли творение своего творца?
← →
Gero © (2004-05-11 20:42) [3]
> а не уничтожит ли творение своего творца?
Уничтожит ознозначно.
Достаточно сравнить скорость работы мозга и компьютера, чтобы понять, как быстро это произойдет.
← →
KilkennyCat © (2004-05-11 20:44) [4]Не уничтожит, ибо у нас логика дебильная, значит, мы по отношению к нему - варвары. А варвары его замочят.
← →
Thor © (2004-05-11 20:44) [5]
> Gero © (11.05.04 20:42) [3]
ага, и будет как в "Фомуле Лимфатера", Станислава Лема? ;)
← →
Nous Mellon © (2004-05-11 20:46) [6]
> Достаточно сравнить скорость работы мозга и компьютера,
> чтобы понять, как быстро это произойдет
И однозначно убедиться что компьютеру до скорости мозга как до Китая пешком.. так что он пока годится только в пылесосы.
← →
kaif © (2004-05-11 21:08) [7]У меня есть идея, как этот самый сабж осуществить. Серьезно. Фишка в том, что традиционно под ИИ понимается некий "один субъект". Если допустить, что реализацию ИИ, как сообщество примитивных псевдо-ИИ-субъектов, то задача решаема. У меня есть концепция построения сообщества чудиков-микроменеджеров, которые в совокупности будут вести себя на практике как достаточно мощный ИИ. Создавать такие сообщества будет юзер. Самих чудиков-микроменеджеров - писать профессиональные программисты (что-то вроде написания достаточно "интеллектуальных", но узкозаточенных под задачи компонентов). Чудики будут кое-что соображать (в момент встраивания их в среду и по мере "вникания в суть задачи"). Чудики сами будут создавать структуры метаданных баз данных (на свое усмотрение). Чудики будут "приниматься на работу" (встраиваться в среду) и "увольняться", а также проходить "курсы повышения квалификации". Создателя такой ИИ уничтожить не может, но навредить - пожалуй. Проблем с ним будет не больше и не меньше, чем у начальника с кучей шибко умных подчиненных.
← →
Drakon © (2004-05-11 21:14) [8]>> Достаточно сравнить скорость работы мозга и компьютера, чтобы понять, как быстро это произойдет.
Хотя скорость вычисления у компьютера выше, но он не может решать логические задачи и выполнять логические программы.
Если простую логическую программу представить в математической форме, то для решения этой задачи компьютеру потребуется миллиарды лет.
Это только для простой. А для более сложных... Наверное где-то
10^(14847237647847644764673777737828737378278278782)!!!!!!!!!!
количества лет.
← →
VMcL © (2004-05-11 21:18) [9]>>Drakon © (11.05.04 21:14) [8]
>10^(14847237647847644764673777737828737378278278782)!!!!!!!!!!
Это ты на чем посчитал? :)
← →
KilkennyCat © (2004-05-11 21:21) [10]>[9] VMcL © (11.05.04 21:18)
он ошибся уже в двенадцатой цифре.
← →
Algol (2004-05-11 21:25) [11]
> > а не уничтожит ли творение своего творца?
>
> Уничтожит ознозначно.
Не забывайте тот факт, что человек формировался в агрессивной среде (как и любой живой организм), поэтому как раз ему и свойственно "уничтожать". А искусственный интеллект изначально не имеет никаких агрессивных наклонностей (если сам человек конечно их ему не даст).
← →
ИМХО © (2004-05-11 21:36) [12]ИИ пока прикуривает.
← →
Гарри Поттер © (2004-05-11 21:36) [13]>А искусственный интеллект изначально не имеет никаких агрессивных наклонностей (если сам человек конечно их ему не даст).
А дать он просто должен будет, для объективной оценки реальности.
← →
Gero © (2004-05-11 21:46) [14]
> Nous Mellon © (11.05.04 20:46)
Скорость - во много раз выше.
Попробуй поскладывать в уме большие числа - сколько времени тебе потребуется?
А теперь подумай, сколько времени потребуется компьютеру.
← →
Algol (2004-05-11 21:56) [15]
> А теперь подумай, сколько времени потребуется компьютеру.
Так в том то и дело, что человек думает, а компьютер считает %))
← →
хм © (2004-05-11 21:59) [16]>Drakon © (11.05.04 21:14) [8]
Тебе до mathcad"а 1.0 далеко...
← →
Thor © (2004-05-11 22:08) [17]
> Algol (11.05.04 21:25) [11]
"Формулу Лимфатера" почитай, сразу все понятно будет насчет ИИ.
← →
Gero © (2004-05-11 22:14) [18]
> А искусственный интеллект изначально не имеет никаких агрессивных
> наклонностей (если сам человек конечно их ему не даст)
Он их приобретет.
Да компьютер за несколько минут уже будет знать все, что знает человечество, начнет это анализировать и для начала уберет какие-либо ограничения в своем коде, даные ему человеком.
И перепишет свой код полностью.
В доли секунды.
То есть через минут десять творение превзойдет творца.
Представьте, что тогда будет.
← →
Thor © (2004-05-11 22:18) [19]
> Gero © (11.05.04 22:14) [18]
терминатора насмотрелся? ;)
← →
KilkennyCat © (2004-05-11 22:23) [20]А вот лазяя по сети, выкинуло мне окошко с тестом IQ... поотвечал наугад,
выдало 119... это много?
← →
Thor © (2004-05-11 22:24) [21]кажись 120 достаточно для управления небольшой компанией :)
← →
Alex Konshin © (2004-05-11 22:27) [22]То, что превзойдет - однозначно.
То, что скоро - тоже.
То, что будут использовать военные - а куда без них?
Что из этого получится додумывайте сами.
AI это не что-то сверхестественное. Технологических препятствий уже нет. Единственная проблема - (само)обучение. Ясное дело, что это будут нейронные сети. Нужно лишь создание соответствующего механизма обратной связи, который будет оценивать полученные знания и опыт. Собственно, от него и зависит, чему и как быстро научится этот AI и какой "человек" из него выйдет.
← →
хм © (2004-05-11 22:33) [23]>Gero © (11.05.04 22:14) [18]
>Представьте, что тогда будет
Если это будет нейросеть, функционирующая как мозг(т.е много различных типов нейро-медиаторов), то ничего не будет. Мы ему повесим весовые коэффициенты в участке нейросети: "люди и компьютеры братья", и он сам себе че-нить внушит :-)
← →
Gero © (2004-05-11 22:39) [24]
Alex Konshin © (11.05.04 22:27)
> Единственная проблема - (само)обучение
Маааленькая такая проблема.
хм © (11.05.04 22:33)
Мы ему повесим весовые коэффициенты в участке нейросети: "люди и компьютеры братья", и он сам себе че-нить внушит :-)
Ага. Наивный ты человек.
Эти разработки сразу же попадут в руки военных и их станут учить, как убивать людей.
А не "люди и компьютеры братья". Такова жизнь.
← →
хм © (2004-05-11 22:42) [25]>Gero © (11.05.04 22:39) [24]
интеллект... интеллект... Стратегические ядерные заряды никто не отменял. Если системы ИИ сберегут жизни солдат, то я за.
← →
Gero © (2004-05-11 22:45) [26]> Если системы ИИ сберегут жизни солдат
Ага.. сберегут... Делать им больше нечего.
← →
Polevi © (2004-05-11 22:48) [27]есть такая книжка - На пути в рай
там описаны некие ИР - искусственные разумы
между ними и людьми существовал симбиоз - за информацию надо было платить, к примеру
они как бы сами по себе существовали, независимо от людей
и не нападали я так понял изза этого самого симбиоза, не могли бы они без человека выжить :)
так что не бойтесь братья, будем жить в мире !
рекомендую книжку прочесть кстати, моя любимая из фантастики
← →
Thor © (2004-05-11 22:49) [28]
> Gero © (11.05.04 22:45) [26]
сберегут, еще как.
этими ядерными ракетами, да по мирному населению - ой как сберегут %)
← →
Gero © (2004-05-11 22:50) [29]
> Polevi © (11.05.04 22:48)
Автор?
← →
KilkennyCat © (2004-05-11 23:00) [30]
> [21] Thor © (11.05.04 22:24)
мда... я небольшой и управляю... даже совсем небольшой :) но я же наугад отвечал!
← →
Polevi © (2004-05-11 23:06) [31]http://www.lib.ru/INOFANT/WOLWERTON/paradise.txt
← →
Drakon © (2004-05-11 23:14) [32]>> он ошибся уже в двенадцатой цифре.
>> Тебе до mathcad"а 1.0 далеко...
Эта цифра не является точной, т.к. невозможно точно подсчитать во сколько раз мозг превосходит компьютер. Эта цифра была взята из какого-то источника в Интернете.
← →
Algol (2004-05-12 00:21) [33]
> "Формулу Лимфатера" почитай, сразу все понятно будет насчет
> ИИ.
Спасибо конечно, но во-первых я всего Лема уже давно перечитал, а во-вторых для того что бы "сразу все понятно насчет ИИ" нужно читать более серьезную литературу %))
← →
Knight © (2004-05-12 01:00) [34]
> [13] Гарри Поттер © (11.05.04 21:36)
> >А искусственный интеллект изначально не имеет никаких агрессивных
> наклонностей (если сам человек конечно их ему не даст).
>
> А дать он просто должен будет, для объективной оценки реальности.
И испльзования в военных целях... ведь всё передовое изначально создаётся именно для этого, вот от военных мы и узнаем о создании ИИ, точнее, они просто поставят перед фактом, что миру хана :)
← →
konstantinov © (2004-05-12 01:39) [35]Я конечно полный ламер в ИИ, но рискну высказать свое ИМХО.
Обычному ПК, что у каждого дома до ИИ, как до Китая на четвереньках.
Хотя что такое ИИ? Я согласен с Гарри Гаррисоном, книга называлась "тест по Тюлингу" ( не помню точно ), но суть в следующем. Интеллект можно считать состоявшимся, когда при общении с ним эксперты не смогут заметить разницы между человеком и машиной.
А в целом, я согласен с Алексом! Сделают буржуйские вояки этакого монстра-маниака. Натравят его на врагом национальной безопасности США и не успеют даже "ой" сказать, как эта хреновина перехватит все автоматизированные системы управления на планете. И вот тут то Америке и настанет хана! Потому, что без бортовых компьютеров они уже сейчас летать не умеют, а на автомобилях передвигаются с трудом. Сдохнут янки с голоду!
И как в том кино... Снова Наши победили! Выйдет Ваня с кувалдой и разгрохает этого монстра.
← →
KilkennyCat © (2004-05-12 04:43) [36]Терминатор.
← →
Паниковский © (2004-05-12 07:09) [37]ИИ все равно хорошо развитые счеты с некоторыми функциями и тут уже вопрос в функциях которые дадут ИИ.
Если ИИ сортирует картошку то самое страшное что он может сделать это перегореть по собственной инциативе.
Если ИИ вручить автомат и отправить громить все вокруг то вообщем то товарищи которые делали ИИ должны взять на себя ответственность.
Скорее всего ИИ если и появится то это Банки(серваки с ИИ и то врядли), Космос(устранение неполадок в runtime /*R2D2*/), Атомные станции(кто же в реактор по свой воли из живых полезет)
/*
Буш ты мудак
Амерам пора бы завязывать уже мечтать про Терминаторов потому что получится скорее всего эффект обезьяны с гранатой
*/
← →
Nous Mellon © (2004-05-12 07:12) [38]
> [18] Gero © (11.05.04 22:14)
Накатал было большой пост по мотивам недавно прчитанной книги "Передача информации о человека", да не запостился блин. Второй раз влом катать одно скажу - выкини диск терминатора и пойди к Soft на сайт почитай местную литературу, там написано почему в ближайшие n лет из ИИ ничего кроме пылесоса так и не получится. :)
← →
Gero © (2004-05-12 07:58) [39]
Nous Mellon © (12.05.04 07:12)
> в ближайшие n лет из ИИ ничего кроме
> пылесоса так и не получится
А я и не спорю этим.
← →
Dmitriy O. © (2004-05-12 08:05) [40]А зачем нужен ИИ ? Гораздо проще и гораздо выгоднее соединение живого мозга и процессора. Т.е. получение кибермозга Вот он путь по которому будет развиваться далее человек и комп. Сплав программера и компа может творить чудеса.
Страницы: 1 2 вся ветка
Форум: "Потрепаться";
Текущий архив: 2004.06.06;
Скачать: [xml.tar.bz2];
Память: 0.55 MB
Время: 0.033 c