Форум: "Потрепаться";
Текущий архив: 2004.06.06;
Скачать: [xml.tar.bz2];
Вниз
Искусственный интеллект: философские вопросы реализации? Найти похожие ветки
← →
Soft © (2004-05-11 19:37) [0]Собственно сабж.
← →
Soft © (2004-05-11 19:38) [1]Просьба, пусть каждый скажет по тезису: нужно сгрупировать материал.
← →
Thor © (2004-05-11 20:41) [2]а не уничтожит ли творение своего творца?
← →
Gero © (2004-05-11 20:42) [3]
> а не уничтожит ли творение своего творца?
Уничтожит ознозначно.
Достаточно сравнить скорость работы мозга и компьютера, чтобы понять, как быстро это произойдет.
← →
KilkennyCat © (2004-05-11 20:44) [4]Не уничтожит, ибо у нас логика дебильная, значит, мы по отношению к нему - варвары. А варвары его замочят.
← →
Thor © (2004-05-11 20:44) [5]
> Gero © (11.05.04 20:42) [3]
ага, и будет как в "Фомуле Лимфатера", Станислава Лема? ;)
← →
Nous Mellon © (2004-05-11 20:46) [6]
> Достаточно сравнить скорость работы мозга и компьютера,
> чтобы понять, как быстро это произойдет
И однозначно убедиться что компьютеру до скорости мозга как до Китая пешком.. так что он пока годится только в пылесосы.
← →
kaif © (2004-05-11 21:08) [7]У меня есть идея, как этот самый сабж осуществить. Серьезно. Фишка в том, что традиционно под ИИ понимается некий "один субъект". Если допустить, что реализацию ИИ, как сообщество примитивных псевдо-ИИ-субъектов, то задача решаема. У меня есть концепция построения сообщества чудиков-микроменеджеров, которые в совокупности будут вести себя на практике как достаточно мощный ИИ. Создавать такие сообщества будет юзер. Самих чудиков-микроменеджеров - писать профессиональные программисты (что-то вроде написания достаточно "интеллектуальных", но узкозаточенных под задачи компонентов). Чудики будут кое-что соображать (в момент встраивания их в среду и по мере "вникания в суть задачи"). Чудики сами будут создавать структуры метаданных баз данных (на свое усмотрение). Чудики будут "приниматься на работу" (встраиваться в среду) и "увольняться", а также проходить "курсы повышения квалификации". Создателя такой ИИ уничтожить не может, но навредить - пожалуй. Проблем с ним будет не больше и не меньше, чем у начальника с кучей шибко умных подчиненных.
← →
Drakon © (2004-05-11 21:14) [8]>> Достаточно сравнить скорость работы мозга и компьютера, чтобы понять, как быстро это произойдет.
Хотя скорость вычисления у компьютера выше, но он не может решать логические задачи и выполнять логические программы.
Если простую логическую программу представить в математической форме, то для решения этой задачи компьютеру потребуется миллиарды лет.
Это только для простой. А для более сложных... Наверное где-то
10^(14847237647847644764673777737828737378278278782)!!!!!!!!!!
количества лет.
← →
VMcL © (2004-05-11 21:18) [9]>>Drakon © (11.05.04 21:14) [8]
>10^(14847237647847644764673777737828737378278278782)!!!!!!!!!!
Это ты на чем посчитал? :)
← →
KilkennyCat © (2004-05-11 21:21) [10]>[9] VMcL © (11.05.04 21:18)
он ошибся уже в двенадцатой цифре.
← →
Algol (2004-05-11 21:25) [11]
> > а не уничтожит ли творение своего творца?
>
> Уничтожит ознозначно.
Не забывайте тот факт, что человек формировался в агрессивной среде (как и любой живой организм), поэтому как раз ему и свойственно "уничтожать". А искусственный интеллект изначально не имеет никаких агрессивных наклонностей (если сам человек конечно их ему не даст).
← →
ИМХО © (2004-05-11 21:36) [12]ИИ пока прикуривает.
← →
Гарри Поттер © (2004-05-11 21:36) [13]>А искусственный интеллект изначально не имеет никаких агрессивных наклонностей (если сам человек конечно их ему не даст).
А дать он просто должен будет, для объективной оценки реальности.
← →
Gero © (2004-05-11 21:46) [14]
> Nous Mellon © (11.05.04 20:46)
Скорость - во много раз выше.
Попробуй поскладывать в уме большие числа - сколько времени тебе потребуется?
А теперь подумай, сколько времени потребуется компьютеру.
← →
Algol (2004-05-11 21:56) [15]
> А теперь подумай, сколько времени потребуется компьютеру.
Так в том то и дело, что человек думает, а компьютер считает %))
← →
хм © (2004-05-11 21:59) [16]>Drakon © (11.05.04 21:14) [8]
Тебе до mathcad"а 1.0 далеко...
← →
Thor © (2004-05-11 22:08) [17]
> Algol (11.05.04 21:25) [11]
"Формулу Лимфатера" почитай, сразу все понятно будет насчет ИИ.
← →
Gero © (2004-05-11 22:14) [18]
> А искусственный интеллект изначально не имеет никаких агрессивных
> наклонностей (если сам человек конечно их ему не даст)
Он их приобретет.
Да компьютер за несколько минут уже будет знать все, что знает человечество, начнет это анализировать и для начала уберет какие-либо ограничения в своем коде, даные ему человеком.
И перепишет свой код полностью.
В доли секунды.
То есть через минут десять творение превзойдет творца.
Представьте, что тогда будет.
← →
Thor © (2004-05-11 22:18) [19]
> Gero © (11.05.04 22:14) [18]
терминатора насмотрелся? ;)
← →
KilkennyCat © (2004-05-11 22:23) [20]А вот лазяя по сети, выкинуло мне окошко с тестом IQ... поотвечал наугад,
выдало 119... это много?
← →
Thor © (2004-05-11 22:24) [21]кажись 120 достаточно для управления небольшой компанией :)
← →
Alex Konshin © (2004-05-11 22:27) [22]То, что превзойдет - однозначно.
То, что скоро - тоже.
То, что будут использовать военные - а куда без них?
Что из этого получится додумывайте сами.
AI это не что-то сверхестественное. Технологических препятствий уже нет. Единственная проблема - (само)обучение. Ясное дело, что это будут нейронные сети. Нужно лишь создание соответствующего механизма обратной связи, который будет оценивать полученные знания и опыт. Собственно, от него и зависит, чему и как быстро научится этот AI и какой "человек" из него выйдет.
← →
хм © (2004-05-11 22:33) [23]>Gero © (11.05.04 22:14) [18]
>Представьте, что тогда будет
Если это будет нейросеть, функционирующая как мозг(т.е много различных типов нейро-медиаторов), то ничего не будет. Мы ему повесим весовые коэффициенты в участке нейросети: "люди и компьютеры братья", и он сам себе че-нить внушит :-)
← →
Gero © (2004-05-11 22:39) [24]
Alex Konshin © (11.05.04 22:27)
> Единственная проблема - (само)обучение
Маааленькая такая проблема.
хм © (11.05.04 22:33)
Мы ему повесим весовые коэффициенты в участке нейросети: "люди и компьютеры братья", и он сам себе че-нить внушит :-)
Ага. Наивный ты человек.
Эти разработки сразу же попадут в руки военных и их станут учить, как убивать людей.
А не "люди и компьютеры братья". Такова жизнь.
← →
хм © (2004-05-11 22:42) [25]>Gero © (11.05.04 22:39) [24]
интеллект... интеллект... Стратегические ядерные заряды никто не отменял. Если системы ИИ сберегут жизни солдат, то я за.
← →
Gero © (2004-05-11 22:45) [26]> Если системы ИИ сберегут жизни солдат
Ага.. сберегут... Делать им больше нечего.
← →
Polevi © (2004-05-11 22:48) [27]есть такая книжка - На пути в рай
там описаны некие ИР - искусственные разумы
между ними и людьми существовал симбиоз - за информацию надо было платить, к примеру
они как бы сами по себе существовали, независимо от людей
и не нападали я так понял изза этого самого симбиоза, не могли бы они без человека выжить :)
так что не бойтесь братья, будем жить в мире !
рекомендую книжку прочесть кстати, моя любимая из фантастики
← →
Thor © (2004-05-11 22:49) [28]
> Gero © (11.05.04 22:45) [26]
сберегут, еще как.
этими ядерными ракетами, да по мирному населению - ой как сберегут %)
← →
Gero © (2004-05-11 22:50) [29]
> Polevi © (11.05.04 22:48)
Автор?
← →
KilkennyCat © (2004-05-11 23:00) [30]
> [21] Thor © (11.05.04 22:24)
мда... я небольшой и управляю... даже совсем небольшой :) но я же наугад отвечал!
← →
Polevi © (2004-05-11 23:06) [31]http://www.lib.ru/INOFANT/WOLWERTON/paradise.txt
← →
Drakon © (2004-05-11 23:14) [32]>> он ошибся уже в двенадцатой цифре.
>> Тебе до mathcad"а 1.0 далеко...
Эта цифра не является точной, т.к. невозможно точно подсчитать во сколько раз мозг превосходит компьютер. Эта цифра была взята из какого-то источника в Интернете.
← →
Algol (2004-05-12 00:21) [33]
> "Формулу Лимфатера" почитай, сразу все понятно будет насчет
> ИИ.
Спасибо конечно, но во-первых я всего Лема уже давно перечитал, а во-вторых для того что бы "сразу все понятно насчет ИИ" нужно читать более серьезную литературу %))
← →
Knight © (2004-05-12 01:00) [34]
> [13] Гарри Поттер © (11.05.04 21:36)
> >А искусственный интеллект изначально не имеет никаких агрессивных
> наклонностей (если сам человек конечно их ему не даст).
>
> А дать он просто должен будет, для объективной оценки реальности.
И испльзования в военных целях... ведь всё передовое изначально создаётся именно для этого, вот от военных мы и узнаем о создании ИИ, точнее, они просто поставят перед фактом, что миру хана :)
← →
konstantinov © (2004-05-12 01:39) [35]Я конечно полный ламер в ИИ, но рискну высказать свое ИМХО.
Обычному ПК, что у каждого дома до ИИ, как до Китая на четвереньках.
Хотя что такое ИИ? Я согласен с Гарри Гаррисоном, книга называлась "тест по Тюлингу" ( не помню точно ), но суть в следующем. Интеллект можно считать состоявшимся, когда при общении с ним эксперты не смогут заметить разницы между человеком и машиной.
А в целом, я согласен с Алексом! Сделают буржуйские вояки этакого монстра-маниака. Натравят его на врагом национальной безопасности США и не успеют даже "ой" сказать, как эта хреновина перехватит все автоматизированные системы управления на планете. И вот тут то Америке и настанет хана! Потому, что без бортовых компьютеров они уже сейчас летать не умеют, а на автомобилях передвигаются с трудом. Сдохнут янки с голоду!
И как в том кино... Снова Наши победили! Выйдет Ваня с кувалдой и разгрохает этого монстра.
← →
KilkennyCat © (2004-05-12 04:43) [36]Терминатор.
← →
Паниковский © (2004-05-12 07:09) [37]ИИ все равно хорошо развитые счеты с некоторыми функциями и тут уже вопрос в функциях которые дадут ИИ.
Если ИИ сортирует картошку то самое страшное что он может сделать это перегореть по собственной инциативе.
Если ИИ вручить автомат и отправить громить все вокруг то вообщем то товарищи которые делали ИИ должны взять на себя ответственность.
Скорее всего ИИ если и появится то это Банки(серваки с ИИ и то врядли), Космос(устранение неполадок в runtime /*R2D2*/), Атомные станции(кто же в реактор по свой воли из живых полезет)
/*
Буш ты мудак
Амерам пора бы завязывать уже мечтать про Терминаторов потому что получится скорее всего эффект обезьяны с гранатой
*/
← →
Nous Mellon © (2004-05-12 07:12) [38]
> [18] Gero © (11.05.04 22:14)
Накатал было большой пост по мотивам недавно прчитанной книги "Передача информации о человека", да не запостился блин. Второй раз влом катать одно скажу - выкини диск терминатора и пойди к Soft на сайт почитай местную литературу, там написано почему в ближайшие n лет из ИИ ничего кроме пылесоса так и не получится. :)
← →
Gero © (2004-05-12 07:58) [39]
Nous Mellon © (12.05.04 07:12)
> в ближайшие n лет из ИИ ничего кроме
> пылесоса так и не получится
А я и не спорю этим.
← →
Dmitriy O. © (2004-05-12 08:05) [40]А зачем нужен ИИ ? Гораздо проще и гораздо выгоднее соединение живого мозга и процессора. Т.е. получение кибермозга Вот он путь по которому будет развиваться далее человек и комп. Сплав программера и компа может творить чудеса.
← →
Паниковский © (2004-05-12 08:23) [41]Dmitriy O.
Цену фичи представляешш не только в деньгах?
Как это отразится на здоровье?
← →
Drakon © (2004-05-12 15:17) [42]>> Гораздо проще и гораздо выгоднее соединение живого мозга и процессора.
Такого просто нельзя допустить.
← →
Drakon © (2004-05-12 15:17) [43]>> Гораздо проще и гораздо выгоднее соединение живого мозга и процессора.
Такого просто нельзя допустить.
← →
Danilka © (2004-05-12 15:26) [44][43] Drakon © (12.05.04 15:17)
Ты-то что переживаешь, все равно ненавистный Борланд этим занимацца не будет?
:))
← →
copyr25 © (2004-05-12 18:17) [45]Что касается ИИ, то, возможно, его к-нить и создадут.
Как очень эффективный автомат. Собственно теперешние
компьютеры, ведь, именно эффективные автоматы, слуги,
счетные машины, безошибочно и быстро расчитывающие то,
в чем человек будет медлителен и, возможно, ошибется.
Но, насколько я понимаю, вопрос был задан не в перспективе ИИ,
а в смысле искусственного разума.
Вот этого человек никогда не создастъ.
Потому, что сам является "автоматом", но в более сведущих руках.
Интеллект и разум - это также различно, как команда и изучение.
Как солдат и студент.
Солдат может при известной подготовке и опыте создать только
подобного себе солдата.
Студента воспитает лишь профессор.
(полагаю, что немного о философии реализации я высказался:))
← →
Thor © (2004-05-12 19:09) [46]
> Algol (12.05.04 00:21) [33]
не-а.
чтобы понять сущность того, к чему ожет привести ИИ, как раз Лема и надо читать.
если читал всего Лема, то вспомни "Как Эрг Самовозбудитель Бледнотика победил".
там же говорится, что роботы сошли с ума....
← →
DiamondShark © (2004-05-12 19:10) [47]
> kaif © (11.05.04 21:08) [7]
А если для "чудиков" реализовать механизм мутаций и отбора, то не понадобятся даже профессиональные программисты. Достаточно сформулировать критерий отбора.
← →
Drakon © (2004-05-12 19:15) [48]>> все равно ненавистный Борланд этим занимацца не будет?
А откуда ты знаешь что не будет? От этих буржуев можно всё ожидать. Они ради денег могут хоть людей убивать. И даже создавать программы ИИ для управления военными роботами, ядерными ракетами и другим оружием массового поражения.
← →
Thor © (2004-05-12 19:15) [49]
> DiamondShark © (12.05.04 19:10) [47]
только не говори, что критерий будет "Выжить".
если так, то это уже будет как по Дарвину и тогда окружающему миру непоздоровится.
← →
Thor © (2004-05-12 19:16) [50]
> Drakon © (12.05.04 19:15) [48]
а нафига ядерной боеголовке система ИИ?
чтобы ее на подлете могли переубедить не взрываться?
хех.
кстати, у нас программы для ядерных ракет на асме пишут :)
← →
DiamondShark © (2004-05-12 19:21) [51]Gero © (11.05.04 21:46) [14]
> Nous Mellon © (11.05.04 20:46)
Скорость - во много раз выше.
Попробуй поскладывать в уме большие числа - сколько времени тебе потребуется?
А теперь подумай, сколько времени потребуется компьютеру.
А теперь представь себе компьютер, скажем, идентифицирующий голос знакомого человека на фоне, скажем, звука кислотной дискотеки.
← →
DiamondShark © (2004-05-12 19:28) [52]
> Если ИИ вручить автомат и отправить громить все вокруг
ИМХО, для этого никакого *И не требуется. Даже наоборот...
;-)
← →
Gero © (2004-05-12 20:30) [53]
Thor © (12.05.04 19:16)
> а нафига ядерной боеголовке система ИИ?
Чтобы он сама решала где ей взрываться :)
DiamondShark © (12.05.04 19:21)
> А теперь представь себе компьютер, скажем, идентифицирующий
> голос знакомого человека на фоне, скажем, звука кислотной
> дискотеки.
Представил. Что дальше?
← →
Thor © (2004-05-12 21:28) [54]
> Gero © (12.05.04 20:30) [53]
ага, проснется в ней дух исследования и полетит она не на вражью страну, а в открытый космос...
← →
Gero © (2004-05-12 21:30) [55]
> Thor © (12.05.04 21:28)
Или на свою страну полетит. За то, что с ней плохо обращались :)
← →
Resina (2004-05-18 17:03) [56]Анекдот знаете? Решили программеры задать суперкомпьютеру вопрос: есть ли бог. Он думал несколько суток, выдал сообщение: "Недостаточно информации, подключите меня ко всем мощнейшим компьютерам планеты". Подключили, задали тот же вопрос. После длительной обработки данных объявляет: "Недостаточно данных, подсоедините меня ко всем компьютерам вообще". Ученым было очень трудно это сделать, но подключили, спрашивают: "Есть ли бог?" Опять ответ: "Недостаточно ресурсов, подключите меня ко всем периферийным устройствам мира". Программеры это выполнили, теперь он запросил подключение ко всем электронным устройствам. Подключили, вводят вопрос: "Есть ли бог на Земле?" -- он пожужжал немного и отвечает: "Теперь есть".
Очень поучительный анекдот.
← →
MOA (2004-05-18 18:11) [57]Народ, кто желает пообщаться по Лему - открылся русский форум на его официальном сайте (там форумы польский, английский и теперь русский.
Ссылка:
http://www.lem.pl/cgi-bin/yabb/YaBB.cgi?board=russian_cat
Только раскладку каждый раз при просмотре/ответе на 1251 приходится менять. Заходите - а то на русском скучновато.
По поводу ИИ с точки зрения философии - моё скромное мнение:
1. Необходимо ли для того, чтобы ИИ был действительно интеллектом его осознание себя? Если да - каким образом это реализовать?
2. Необходимы ли органы чувств? Сколько их должно быть - например, достаточно ли одного? Или всё же нужно минимум 2 (3-3...)?
3. Если ИИ будет обладать органами чувств и осознавать себя - как нам это узнать и в этом удостовериться?
4. Если мы убедимся, что созданный ИИ всё же осознаёт своё существование - как его потом выключить? Что он будет делать, когда узнает, что сделаны превосходящие его ИИ следующего поколения? В чём он будет видеть смысл своего бытия? - не сделаем ли мы нечто ужасное - сознание, страдающее от осознания своей искусственности (сделан по прихоти) и бессмысленности?
Тут впрям, некоторые ссылки на Лема не повредили бы.
← →
хм © (2004-05-18 18:50) [58]>1. Необходимо ли для того, чтобы ИИ был действительно >интеллектом его осознание себя? Если да - каким образом это >реализовать?
Нет, необязательно, но интеллект выше уровня мухи осознавать себя должен. Это побочный эффект инстинкта самосохранения.
>2. Необходимы ли органы чувств? Сколько их должно быть - >например, достаточно ли одного? Или всё же нужно минимум 2 (3-3...)?
Можно даже использовать временные органы чувств. Подключили - отключили, а далше он это все переваривает.
>Если ИИ будет обладать органами чувств и осознавать себя - как >нам это узнать и в этом удостовериться
Спросить. :). Например, разъединить систему на две части ненадолго, потом спросить, что с ним было.
>сознание, страдающее от осознания своей искусственности (сделан >по прихоти) и бессмысленности?
Человек страдает от химии, происходяещей в мозгу. Сами нейросети только запускают процесс выделения гормонов. Страдать он будет, если только мы этого захотим.
← →
Cerber © (2004-05-18 18:59) [59]Весь в меня пошёл )))))))))))))))))))))))(Soft)
← →
Cerber © (2004-05-18 18:59) [60]Весь в меня пошёл )))))))))))))))))))))))(Soft)
← →
MOA (2004-05-18 19:14) [61]>Страдать он будет, если только мы этого захотим.
Так вот именно это и имеется в виду. Совершенно неважен конкретный механизм (химия, эл. импульсы или ещё что) - важен результат. Так вот, необходимо ли нам при создании ИИ этого захотеть - вот в этом и вопрос.
По поводу осознания себя мухой - хм... Т.е Вы уверены, что муха обладает интеллектом? Т.е. мы стремимся сделать что-то интеллектуально подобное интеллекту мухи? Если именно в этом и есть наша цель - да, действительно, все эти вопросы беспокоить не должны.
← →
Igorek © (2004-05-19 14:30) [62]Имхо, ИИ надо делать как ребенка (в смысле сначала тупого, а потом воспитывать). Что воспитаем, то и будем иметь.
---
Опасно это очень...
Страницы: 1 2 вся ветка
Форум: "Потрепаться";
Текущий архив: 2004.06.06;
Скачать: [xml.tar.bz2];
Память: 0.62 MB
Время: 0.051 c