Главная страница
Top.Mail.Ru    Яндекс.Метрика
Текущий архив: 2005.03.06;
Скачать: CL | DM;

Вниз

Реален ли ИИ ?   Найти похожие ветки 

 
Инк   (2005-01-29 03:58) [0]

Как вы думаете реально ли создать нечто что имело сознанине,интеллект ?


 
Johnmen ©   (2005-01-29 04:00) [1]

Реально. Уже создано Дмитрием О.


 
Fay ©   (2005-01-29 04:19) [2]

Удалено модератором


 
Инк   (2005-01-29 04:32) [3]

А кто такой Дмитрий О.
Мозг человека - грубо говоря 2 кг клеток. Они как видим успешно действуют.
Может дело в сложности ?


 
Fay ©   (2005-01-29 06:19) [4]

2 Инк   (29.01.05 4:32) [3]
> Они как видим успешно действуют
Не так уж и успешно. К примеру, иногда забывают ставить вопросительный знак 8) :
> А кто такой Дмитрий О.

P.S.
Дмитрий О. - легенда форума. Не трогайте его своими красными мокрыми руками. Даже если Ваши руки не красные и не мокрые, всё равно не трогайте.


 
Копир ©   (2005-01-29 07:14) [5]

>Инк   (29.01.05 03:58):
>Как вы думаете реально ли создать нечто
>что имело сознанине,интеллект ?

Нереально.
По той простой причине, что никто до сих пор,
не может даже сформулировать, что такое сознание.

Если я не прав -- сформулируйте?
Только не посредством определений, а посредством
простенькой программы?

Интеллект, он, ведь, и у головастика проявляется.
А все ИИ-шные программы, которые мне встречались,
покоятся на старом и добром случайном выборе.

Возможно, что я не прав.
Японцы, например, пытаются что-то сделать, но,
похоже, и у них не получается.

Ещё раз, самое главное, для того, чтобы что-то
создать, прежде всего, нужно это всецело понять.

А как интеллект может понять самого себя?
Ошибочная рекурсия:))

Создать новый интеллект может лишь Тот, Кто создал старый.


 
Инк   (2005-01-29 07:50) [6]

А может дело в сложности ? Нейрон по отдельности ничего не значит
А вот 15 миллиардов...


 
SPeller ©   (2005-01-29 07:50) [7]

ИИ возможен, но только как Искусственный Идиот.


 
uny ©   (2005-01-29 07:58) [8]

этические вопросы всё испортят как всегда


 
Копир ©   (2005-01-29 08:07) [9]

>Инк   (29.01.05 07:50) [6] :
>А вот 15 миллиардов...

Неа! Количество никогда само по себе в качество
не переходит:))

Для такового перехода нужны качественные же причины.

Ну, например, в социальных науках?

Собралась, скажем, толпа.
Шумят, протестуют, бубнят.
Но это - именно шум.
Средне-статистическое и равновероятное, пустое
и бесполезное занятие.

И, вдруг, над толпой на броневичке появляется
Ленин.

Один человек, но в качестве. И судьба Российской Империи
меняется, потому, что толпа перестает быть "шумом", становится
силой.

Или, если не верите прошлому, вот Вам недавнее прошлое:
Ельцин. На танке.
Кто поспорит, что судьба СССР с тех пор изменилась?

Так же и интеллект.
Это и совокупный, статистический шум, но и танк
должен быть!

Ну, поняли? :))


 
YurikGL ©   (2005-01-29 08:29) [10]

ИМХО - реально. Для этого даже не обязательно его определение и принципы постороения. Достаточно повторить структуру мозга. Просто сейчас и в ближаешем будущем не хватает аппаратных средств для реализации такого количества нейронов.

>Интеллект, он, ведь, и у головастика проявляется.
>А все ИИ-шные программы, которые мне встречались,
>покоятся на старом и добром случайном выборе.

Ну... головастика то вроде смоделировать уже можно... или муху...

Кстати, ИИ-е программы, насколько я помню, развиваются в двух направлениях.
1) повторение мозга т.е. нейронные сети. Там нет случайного выбора.
2) сбор правил поведения. Это - экспертные системы. Языки типа лисп и пролог.


 
Копир ©   (2005-01-29 08:43) [11]

>YurikGL ©   (29.01.05 08:29) [10]:
>Ну... головастика то вроде смоделировать уже можно...
>или муху...

I have seen:))

Глаз голубя.
Почему именно голубя?
Да, потому, что именно голуби в удивительно простом
протоколе, как оказалось, могут передавать 3D.

Работа эта была (между нами,ладно?) вполне засекреченная.

Так вот.
Этот глаз голубя, как модель, занял примерно 75 кв.м.
площади.

А муху, такого мобильного шпиЁна. Создать.
СлабО?


 
Сергей Суровцев ©   (2005-01-29 08:53) [12]

>SPeller ©   (29.01.05 07:50) [7]
>ИИ возможен, но только как Искусственный Идиот.

У нас пока и естественных-то девать некуда.

>Копир ©   (29.01.05 08:07) [9]
>Это и совокупный, статистический шум, но и танк
>должен быть!

Правильно. Танк должен быть всегда. Без него интеллект не работает.
- Дедушка, зачем ты клумбу маслом поливаешь? Цветы же завянут!
- Зато пулемет целее будет... (с)

>YurikGL ©   (29.01.05 08:29) [10]
>ИМХО - реально.
Инструмент для принятия решений в ограниченной сфере деятельности, это пожалуйста, это и сегодня уже есть. А вот способность к самоанализу и саморазвитию, а главное способность к принятию новых, парадоксальных решений - это уж увольте. Самообучение - вот критерий интеллекта. А у сознания критериев вообще нет. Искуственное сознание - это вообще чушь, по крайней мере на этом пути развития.


 
Копир ©   (2005-01-29 08:59) [13]

>YurikGL ©   (29.01.05 08:29) [10]:
>ИМХО - реально. Для этого даже не обязательно его определение и принципы постороения.
>Достаточно повторить структуру мозга. Просто сейчас и в ближаешем будущем не хватает
>аппаратных средств для реализации такого количества нейронов.

Вы безусловный, как я называю, "количественник":))

Кроме того, "повторить структуру мозга".
Это Вы о чём?
Как повторять будете?
Это первый вопрос.
И самый для Вас сложный.

И второй, если хотите?

C какого мозга?
Головастика?

Ученый Грей Уолтер в 60-х годах придумал
и воплотил в жизнь кибернетическую черепашку,
которая пыталась достигнуть цели, подползала к зарядному
устройству, когда аккумулятор сдавал, вообщем, пыталась
выжить в суровых условиях.

Я с уважением отношусь с результатам господина Уолтера.
Тогда не то, чтобы компов PIV не было,
но и даже калькулятора МК.

С тех пор никто новой черепашки так и не придумал.

ИИ топчется на уровне 50-х годов.

Если я не прав, буду рад переубедиться.


 
YurikGL ©   (2005-01-29 09:10) [14]

Копир ©   (29.01.05 08:43) [11]

>Глаз голубя.
>Почему именно голубя?
>Да, потому, что именно голуби в удивительно простом
>протоколе, как оказалось, могут передавать 3D.

При чем здесь глаз? Речь идет об аппарате, принимающем решения а не о сенсорах.

Я говоре не о повторении мухе как таковой а о повторении фунциональных возможностей мозга мухи. Лапки и крылья к мозгу не относятся. :-)

>Самообучение - вот критерий интеллекта.
Самообучающаяся система уже давно создана. Легко и непринужденно. Берем НС, единожды ее обучаем, потом эту систему пускаем в экплуатацию. Она в процессе эксплуатации сама дообучается.

>Это Вы о чём?
>Как повторять будете?
А структура мозга, в общем, не секрет...
А повторять можно напрямую. Адекватную модель нейрона построили годах в 80-х.

C какого мозга?
Головастика?
Хотя бы и его... человечество, прежде чем бурить нефтяные скважини, знаете-ли сначала колодцы рыло...


 
Копир ©   (2005-01-29 09:31) [15]

>YurikGL ©   (29.01.05 09:10) [14] :
>При чем здесь глаз? Речь идет об аппарате, принимающем
>решения а не о сенсорах.

Вы недооцениваете свойства глаза!

Глаз у стрекозы, например - это инструмент,
принимающий решения, в реальном времени.

Кстати, про глаз.

И у млекопитающих, глаз -- это прямой канал
(прям так и хочется написать, - DMA:)) к мозгу.


 
Копир ©   (2005-01-29 09:39) [16]

>YurikGL ©   (29.01.05 09:10) [14] :
> человечество, прежде чем бурить нефтяные скважини, знаете-ли
>сначала колодцы рыло...

Правильное это Ваше мнение.
И в колодцах была питьевая вода.
Т.е. рытье колодцев не было напрасным?

А про "черепашку" Вы мне так и не ответили.
А я жду.
Про черепашку.

А когда ответите, почему до сих пор никакой
новой черепашки, я Вам тут же ещё вопрос задам про ИИ.

Черепашка покажется просто детским лепетом:))
C искренним уважением!


 
YurikGL ©   (2005-01-29 09:48) [17]


> Копир ©   (29.01.05 09:31) [15]

Тем не менее, свойства глаза не имеют отношения к ИИ. Это - сенсор.

>И в колодцах была питьевая вода.
>Т.е. рытье колодцев не было напрасным?
Если бы люди считали рытье колодцев напрасным, то нефтяных сважин бы до сих пор не было.


> А про "черепашку" Вы мне так и не ответили.
> А я жду.

А что я должен был ответить? Что в США есть две программы ИИ. Одна из них сводится к автоматизированной огневой точке, которая сама по сумме факторов будет определять враг/друг. Другая - построение автоматического транспортного средства, которое будет способно передвигаться в условиях боя...
Все это, разумеется, с самообучением и т.д.

А вопросы - давайте...

Только вот отмазка, что ИИ построить нельзя т.к. неизвестно что это такое - не катит. Есть один очень интересный субъективный критерий: если человек, следящий за поведением системы, не сможет определить управляет этой системой оператор или она действует сама, то такую систему можно считать интеллектуальной. Размуеется, система должна быть достаточно сложной. Например - управление автомобилем.


 
Копир ©   (2005-01-29 10:02) [18]

>YurikGL ©   (29.01.05 09:48) [17] :
>А вопросы - давайте...
>Есть один очень интересный субъективный критерий:
>если человек, следящий за поведением
>системы, не сможет определить управляет этой системой оператор
>или она действует сама, то
>такую систему можно считать интеллектуальной.
>Размуеется, система должна быть
>достаточно сложной. Например - управление автомобилем.

Или авто-матический chat, например?


 
YurikGL ©   (2005-01-29 10:04) [19]

>Или авто-матический chat, например?
Почему бы и нет...


 
MVova ©   (2005-01-29 10:07) [20]

ИИ можно считать ИИ если в ходе своей эволюции (без вмешательства другого ИИ) сможет создать новый ИИ.
Огневая точка с ИИ или автоматическое транспортное средство сможет такое? Или этаже огневая точка потом образумится и начнет лечить людей? Если нет, то это просто робот (программа) которого можно предсказать зная вводные данные (если там нет случайных чисел).


 
YurikGL ©   (2005-01-29 10:21) [21]


> MVova ©   (29.01.05 10:07) [20]

Смотря какую задачу ставить.
Всякий ИИ - несомненно робот. И если потом перед огневой точкой поставить задачу лечить людей, то она может и лечить. Но для этого ей надо как и человеку дать
1) инструменты
2) знания


 
вредитель   (2005-01-29 11:05) [22]

Ребят, а вы про тест Тьюринга помните? Впрочем опять все дело в определениях.

http://arbuz.uz/u_ii.html


 
MVova ©   (2005-01-29 11:19) [23]


> YurikGL ©

Человеку никто не давал знаний и инструментов, он сам добывал знания (хотя есть теории, что знания человеку ктото всетаки давал) и делал инструменты.

Пока человек может научить программу самообучатся в узких рамках (убивать, лечить, строить...) но сделать так чтобы программа изначально не писавшаяся для лечения со временем научилась лечить сейчас не возможно.

Разпознавание свой чужой похоже на распознавание сканированного текста, только чуть сложнее, но суть задачи одна и таже и это не есть ИИ. Это чистой воды if then else по некоторым условиям (цвет формы, поиск маяка на обекте, направление откуда идет ...), и последующая коррекция если не правильно разпознал, убил своего :( Никогда этот, такзванный ИИ, не изменит свою "профессию" если этого не предвидит тот кто создавал его. Следовательно это не есть ИИ.


 
вредитель   (2005-01-29 12:31) [24]

>Пока человек может научить программу самообучатся в узких рамках (убивать, лечить, строить...) но сделать так чтобы программа изначально не писавшаяся для лечения со временем научилась лечить сейчас не возможно.

Ничегта. Самообучение возможно. Ибо нейгонные сети.

>Это чистой воды if then else по некоторым условиям (цвет формы, поиск маяка на обекте, направление откуда идет ...),

Ничегта. Опять нейгонные сети. Посмотгите по подгобнее тут http://alife.narod.ru/

>Никогда этот, такзванный ИИ, не изменит свою "профессию" если этого не предвидит тот кто создавал его. Следовательно это не есть ИИ.

Ничегта. Ибо самообучение. Доведенное до опгеделенного уговня конечно.

Навегное, вы хотели сказать, что ИИ никогда не будет похож на человека (человеческое сознание). Это пгавда.


 
KilkennyCat ©   (2005-01-29 12:39) [25]

ну я же создан... значит - можно.


 
YurikGL ©   (2005-01-29 12:46) [26]

>>Это чистой воды if then else по некоторым условиям (цвет формы,
>поиск маяка на обекте, направление откуда идет ...),

>Ничегта. Опять нейгонные сети. Посмотгите по подгобнее тут
>http://alife.narod.ru/

Если перевести на мат-аппарат, если не ошибаюсь, получим нечеткую логику. Т.е
if (условие) then с такой-то вероятностью
            else с другой вероятностью
Далее процесс делится на два и идем по обоим веткам.


 
Копир ©   (2005-01-29 13:15) [27]

>YurikGL ©   (29.01.05 10:04) [19] :

Чат - это искусство общения.
Во всем мире до сих пор не создано даже ни одной
программы, которая хотя бы уподобилась убогому поэту.

Фраза великого Пушкина "Над вымыслом слезами обольюсь"
в искусствено-интеллектуальном смысле до сих пор не.

Дело не в том, что инженер не может "заставить" комп сочинять
стихи или принудить его так или сяк отвечать в чате.

Дурное дело- нехитрое.

Инженер всё же не может сделать свой ПК своим другом, собеседником
и сообщником.

А про ракетные системы, про уравнения "враг-чужой" не надо, ладно?

Вон, недавно в Украине не системы, и те не распознали, сбив израильский пассажирский
самолет.

А интеллект был не искусственным.

И ни один человек над стихами, придумаными из статистической выборки рифм
и окончаний, "слезами не обольется".

Потому, что стихи - это более, чем просто рифма.

И, наконец, уж простите за назойливость?

А Ваши пуско-наладочные ракетные американские системы умеют шутить?

Именно юмор отличает человека от попугая, который (попугай) механическим,
и совсем равнодушным голосом повторяет анекдот, которого ему
никогда не понять.


 
TUser ©   (2005-01-29 13:17) [28]

Можно написать программу, которая решит некую задачу. Или много задач. Нельзя - программу, которая сама себе будет ставить задачи. Для этого надо быть настоящим человеком, да не просто человеком, а безбашенным раздолбаем, который может, сказав "Хочу!", броситься в решение некой задачи, которая из этого "хочу" по его сугубому ИМХО следует.


 
YurikGL ©   (2005-01-29 13:38) [29]


> Копир ©   (29.01.05 13:15) [27]

Может просто никто не ставил перед собой такую задачу. Да и потом, если ограничить темы общения, то, я думаю, подобные аппараты уже есть. А расширение тем для общения достигается лишь аппаратным наращиванием.


> TUser ©   (29.01.05 13:17) [28]

Тем не менее, бесшабашаного раздобая мы вроде как считаем человеком с интеллектом.


 
TUser ©   (2005-01-29 13:45) [30]

Именно потому, что он может ставить себе задачи, в отличае от компьютера, каким бы мощным он ни был.


 
Marser ©   (2005-01-29 14:00) [31]

Не могу отрицать его принципиальную возможность, но в ближайшие сто лет считаю неосуществимым в объемах, достаточных для правдоподобной эмуляции человеческого сознания в большинстве его проявлений.


 
YurikGL ©   (2005-01-29 14:02) [32]

TUser ©   (29.01.05 13:45) [30]
>Именно потому, что он может ставить себе задачи, в отличае от
>компьютера, каким бы мощным он ни был.

Человек ставит себе задачи не просто так. А для решения других задач. Главная задача - хорошо жить. Разумеется, что формализация этой задачи очень и очень сложна, и задача динамична, но принципиально от автоматизированной огневой точки эта задача ничем не отличается.
Автоматизированная огневая точка тоже ведь себе задачи ставит: Появился объект - ставится задача распознать. Если враг - ставится задача уничтожить.
А человек точно так же поступает. Нет денег - ставится задача заработать. Есть деньги - ставится задача - потратить :-)
Задачи разные по сложности, но принципиально ничем не отличаются.


 
Копир ©   (2005-01-29 14:22) [33]

>YurikGL ©   (29.01.05 13:38) [29] :
>Может просто никто не ставил перед собой такую задачу.

А какие задачи? Механику? Рычаг управления под 45 градусов?
Причем тут ИНТЕЛЛЕКТ? Такие задачи решались механическими
установками ещё в 18-м веке. Шестеренки, механика и пр.фигня.
Нынче же век (напомню) 21-й.

Японцы, которым до всего есть дело, нынче усиленно думают, как
научить железного робота, с его стальными пальцами донести
бумажный стаканчик с кофе до потребителя, и не помять!

Что же скажем?
Вот задача для действительно интеллекта.
Стаканчик.

Ладно, так и быть, подскажу Вам:))
Я немного занимался и этой темой...

Возьмётесь, ну, например, сделать программу (на Delphi, хотя бы?)
которая работает, как анализатор акустического спектра?

Это не искусственный интеллект, а просто искусственное "ухо".

Задача сложная -- нужно выделить характерные (заранее заданные) частоты
в звуковоми потоке, обработать их в статистическом и в амплитудном порядке.
Ну, там, график этой статистики. В конце.

Источник звука - пьезоэлектрический микрофон. Стандартная, типа ESS,звуковая карта.
Нужен алгоритм рядов Фурье, и обязательно алгоритм избавления от шума.
Дело совсем не простое, как кажется сперва:))

Задача сформулирована аж Комитетом ЮНЕСКО в нынешнем 2005 году.
Связана с, как всегда, опередившим фактом цунами.

Мне известны десятки программистских "контор", которые возьмутся за дело.

Ну, и Вы? Вай бы и нот?
ЮНЕСКО платит очень щедро!


 
TUser ©   (2005-01-29 14:36) [34]


> YurikGL ©   (29.01.05 14:02) [32]

Позвольте не согласиться. Я вот применяю программирование для решения научных и околонаучных задач. Компьютер может посчитать. Он может очень быстро посчитать и очень много. А наш сервер на чертову тую процессоров - так вообще молодец. Но, даже этот сервер не может за меня эту задачу поставить. И описывать результат самому приходится, увы. Ну, не знает он чего надо делать, и даже не знает, как.
Не люблю я долго филосовствовать (читай - флудить), но причина как раз в том, что конечная цель для человека - не определена. Вот вы когда пишите программу, по ходу дела не вносите что ли изменений в первоначальные замыслы? Если даже и удастяс написать программу, которая работала бы вместо Вас, то ее результат будет точно соотвествовать заложенной зааче. Она никогда не скажет - мо моему разумению, лучше вместо этой функции поставить другую.


 
вредитель   (2005-01-29 14:47) [35]

>Если перевести на мат-аппарат, если не ошибаюсь, получим нечеткую логику.
if (условие) then с такой-то вероятностью
           else с другой вероятностью
Далее процесс делится на два и идем по обоим веткам.


Подобное упгощение  (пгостите,  клавиша с  буквой эг на
клавиатуге   пгостудилась),  подобно  упгощению  модели
деятельности мозга, сводимой к наличию или отсутствию в
нем электгических  сигналов.  Создание ИИ  в системе на
такой основе  действительно тгудоемко.  Нечеткая логика
это пгежде всего  теогия  нечетких множеств,  а то, что
описали Вы, является лишь  механизмом пгинятия гешений,
пгичем не самым сложным.


Marser
>но в ближайшие сто лет считаю неосуществимым в объемах, достаточных для правдоподобной эмуляции человеческого сознания в большинстве его проявлений

А собственно зачем нам еще  одно человеческое сознание?
На мой  взгляд,  это   невозможно  вообще,  ибо  как мы
узнаем,  что у нас  это  получилось  (хотя  вегоятность
случайного  создания  подобия   человеческого  сознания
отвеггать не  стоит). Тест  Тюгинга покажет  лишь часть
внешней стогоны системы, внутгеннее же ее устгойство от
человеческого    может  весьма   отличаться,  со  всеми
вытекающими   последствиями  (попгобуй  скажи  ему, что
такое любовь или  интуиция, и если это  удасться, будет
ли оно  испытывать  то  же, что  и мы?).   Человеческое
сознание,  на  мой  взгляд очень   несовегшенно  (объем
нашего  сознательного  внимания  составляет, как
известно,  7±2  единиц),  так  как  завязано на  весьма
сквегной биологической  основе, основной  целью котогой
является  удовлетвогение  потгебностей,  избавляющее от
смегти, вследствие чего, само сознание весьма убого для
такой сложной стгуктугы, как человеческий мозг, занятый
в основном упгавлением физиологическими пгоцессами.


 
YurikGL ©   (2005-01-29 14:47) [36]


> Копир ©   (29.01.05 14:22) [33]

Спрашиваешь можно ли? Я отвечаю можно. Теперь говоришь - делай :-) Несерьезно. Если я говорю, что можно, это не значит, что я могу.

Кстати, какое отношение имеет поставленная задача к ИИ? Ее можно решить средствами ИИ так:
Берем НС, берем, скажем, сотню другую спектров соответсвующих цунами, около тысячи спектров, которые не соответсвуют цунами, обучаем НС. Проверяем корректность полученной НС... и все. одна проблема - нужно сотню цунами пережить, прежде чем такую штуку сделать.

TUser ©   (29.01.05 14:36) [34]
Каждая вновь поставленная задача исходит из целей поставленных ранее. А человеком движут всего три инстинкта - сексуальный, платонический и самосохранения. Читай, что есть три таких глобальных цели. От них все и идет. А дальше переход от задачи к подзадаче ничем приниципиально не отличается от огневой точки. Только правил гораздо больше. Но это - не принципиальное отличие.


 
YurikGL ©   (2005-01-29 14:49) [37]

>а то, что
>описали Вы, является лишь  механизмом пгинятия гешений,
>пгичем не самым сложным.

Я описал дейсвительно самый простой вариант.


 
megabyte-ceercop ©   (2005-01-29 15:17) [38]


> Инк

А ты женись, и сам незаметишь, как начнут появляться "нечты" :))

Может среди ни найдётся и с интеллектом :)


 
kaif ©   (2005-01-29 15:41) [39]

Любопытно всегда бывает понаблюдать за тем, как материалисты, которые секунду назад доказывали, что бог невозможен, уже доказывают, что ИИ возможен. Особенно мне понравилась идея "воспроизвести структуру нейронов в лоб".
 Интересно, а воспитывать и на горшок сажать этот ИИ надо будет или он без всего этого обойдется? А если плохо к горшку привыкать будет, правда, что тогда у этого ИИ будет садомазохистский комплекс и особенная склонность к аккуратности во всем? И еще вот что интересно. Половое созревание у ИИ наступит в 12 или в 14 лет и как это будет зависеть от возраста ИИ? И еще вот я больше всего о чем думаю. О сексе родителей этому ИИ обязательно с самого начала знать или пускай другие ИИ объяснят?


 
Anatoly Podgoretsky ©   (2005-01-29 16:05) [40]

Надо бы сначала дать четкое определение что такое интеллект, тогда можно ответить можно ли создать искуственный.


 
AndB ©   (2005-01-29 16:34) [41]

одного не пойму - зачем он нужен? ИИ? что б еще и не думать самим?? Воооот! Человеку оттого и мысли приходят, что - инстинкты.. Для их реализации он и ставит себе задачи, и пути решения находит. Это же то, об чем рядом говорилось - и "намерения, желания" от kaif-а,, и "цель жизни" - все одной цепи колечки... Доводя до абсурда - что надо человеку? Не умереть с голоду, удовлетворить потребности.. Не кажется ли вам, что идеальный ИИ очень скоро вычислит всю никчемность своих "телодвижений"? Ведь его конечной целью окажется обеспечить себе бесперебойное питание.. чем он там питаться будет? :) Электричеством?? Ну так вот он сядет у ближайшей розетки и застынет там.. Предварительно уничтожив всяких паразитов, способных нарушить электроподачу..
{шучу ;)}


 
YurikGL ©   (2005-01-29 17:02) [42]


> kaif ©   (29.01.05 15:41) [39]

> Любопытно всегда бывает понаблюдать за тем, как материалисты,
> которые секунду назад доказывали, что бог невозможен, уже
> доказывают, что ИИ возможен.

Я, как всегда, что-то пропустил? Где я это доказывал?

А модель нейрона, повторюсь, построена давно. Вроде работает. Правда до воспроизведения структуры в лоб еще далеко...


 
GEN++ ©   (2005-01-29 17:03) [43]

>Копир ©  

>Задача сложная -- нужно выделить характерные (заранее заданные) >частоты
>в звуковоми потоке, обработать их в статистическом и в >амплитудном порядке.
>Ну, там, график этой статистики. В конце.

>Источник звука - пьезоэлектрический микрофон. Стандартная, типа >ESS,звуковая карта.
>Нужен алгоритм рядов Фурье, и обязательно алгоритм избавления >от шума.
>Дело совсем не простое, как кажется сперва:))

>Задача сформулирована аж Комитетом ЮНЕСКО в нынешнем 2005 году.
>Связана с, как всегда, опередившим фактом цунами.

>Мне известны десятки программистских "контор", которые >возьмутся за дело.

Не стоит волноваться. Задача эта уже решена и реализована
в аппаратуре. Только на входе не пьезо микрофон, а фазовые
решетки. Кем и как решена - не скажу.


 
YurikGL ©   (2005-01-29 17:03) [44]


> Надо бы сначала дать четкое определение что такое интеллект,
> тогда можно ответить можно ли создать искуственный.

Создать можно... просто кое-кто будет говорить что это - не интеллект. Для того что-бы создать модель чего либо не всегда обязательно знать, как оно внутри устроено.


 
Anatoly Podgoretsky ©   (2005-01-29 17:33) [45]

Внутренности не нужны, нужно определение. Иначе про любую вещь будем говорить дважды - это оно и это не оно. Определения то нет.


 
YurikGL ©   (2005-01-29 17:43) [46]


> Внутренности не нужны, нужно определение. Иначе про любую
> вещь будем говорить дважды - это оно и это не оно. Определения
> то нет.

Однако, если сделать копию (в рамках допустимых погрешностей) того, что мы не можем определить, и если копия будет работать аналогично (в рамках допустимых погрешностей) то можем мы сказать, что если первое было интеллектом, то второе тоже интеллект?


 
tvar   (2005-01-29 18:11) [47]

Это чистой воды if then else по некоторым условиям
А как ты определишь, враг это или друг? Наугад? Или же будешь думать, раз этот человек пришел с вражеской стороны и направил на тебя оружие, значит он враг. Это не "if then else"? Ах, да. Это case of, как я мог так ошибиться.


 
kaif ©   (2005-01-29 18:26) [48]

YurikGL ©   (29.01.05 17:43) [46]

> Внутренности не нужны, нужно определение. Иначе про любую
> вещь будем говорить дважды - это оно и это не оно. Определения
> то нет.

Однако, если сделать копию (в рамках допустимых погрешностей) того, что мы не можем определить, и если копия будет работать аналогично (в рамках допустимых погрешностей) то можем мы сказать, что если первое было интеллектом, то второе тоже интеллект?


Человек - двуногое без перьев в ремках допустимых погрешностей.


 
YurikGL ©   (2005-01-29 18:29) [49]


> А как ты определишь, враг это или друг? Наугад? Или же будешь
> думать, раз этот человек пришел с вражеской стороны и направил
> на тебя оружие, значит он враг. Это не "if then else"? Ах,
> да. Это case of, как я мог так ошибиться.

В той системе, насколько я понимаю, есть ряд критериев, у каждого критерия есть веса... В принципе, может быть можно свести к МАИ.


> Человек - двуногое без перьев в ремках допустимых погрешностей.

У каждого свое понимание интеллекта :-)


 
kaif ©   (2005-01-29 18:30) [50]

Висит груша - нельзя скушать.
 В принципе, если не нужно кушать, то лампочка это та же самая груша, но в рамках допустимых погрешностей работает аналогичо(выглядит, как груша).
 Так что ли?
 :)


 
kaif ©   (2005-01-29 18:33) [51]

Согласно сабжу интеллект и сознание уже объединены под общим названием ИИ. Интересно, а верно ли их так объединять? Вот, ИМХО, у улиток сознание есть, а интеллекта - нуль. Так что давайте сначала отделим белое от твердого.


 
марсианин ©   (2005-01-29 19:02) [52]


> Как вы думаете реально ли создать нечто что имело сознанине,интеллект
> ?

читай книгу Роджера Пенроуза "Новый Ум Короля"


 
марсианин ©   (2005-01-29 19:19) [53]

а компа есть интеллект?


> Согласно сабжу интеллект и сознание уже объединены под общим
> названием ИИ

есть класс задач, которые не решаются алгоритмически.. принципиально не могут решаться.. не исключено, что 100% моделирование сознания как раз и есть 1 из таких задач..

кроме того, есть вероятность, что мы еще не достаточно представляем именно физические принципы функционирования мозга..
ну.. да это может показться странным, ибо поведение отдельной молекулы, отдельного нейрона мы описать можем.. в то же время всю структуру в целом - нет. и, возможно, что здесь замешаны уже некоторые физические законы, те, которые уже не микро-..(квантовые) но еще не макро- и о которых мы пока имеем смутное понятие..

чтож.. может быть и так. в современной физике пробелов еще хватает


 
вредитель   (2005-01-29 19:20) [54]

AndB
>одного не пойму - зачем он нужен? ИИ? что б еще и не думать самим??

ИИ необходим в качестве "усилителя" убогого человеческого интеллекта, ибо поток информации, которым обладает человечество может превысить допустимую пропускную способность интеллекта "глобального", и тогда начнется самое веселое. Причем, не в качестве усилителя основанного на принципе грубой силы, примером коего является современный компьютер.

kaif
>Интересно, а воспитывать и на горшок сажать этот ИИ надо будет или он без всего этого обойдется? А если плохо к горшку привыкать будет, правда, что тогда у этого ИИ будет садомазохистский комплекс...

Стремление наградить ИИ человеческими пороками, погрузить его в сансару... Вы мазохист?:)

>Согласно сабжу интеллект и сознание уже объединены под общим названием ИИ. Интересно, а верно ли их так объединять?

Вопрос действительно интересный. Если понимать интеллект под способностью решать задачи на основе программируемой (в течении жизни) логики, а не довольствоваться жестко прошитыми инстинктивными программами, то у улитки интеллект практически отсутствует. Как впрочем и сознание (проблески которого, надеюсь, улитка имеет, хотя сколько не спрашивал, ни одна улитка не рассказала), под которым понимается способ восприятия бытия, сильно зависящий от качества перцептронов (улитка в этом плане тоже далеко не продвинулась).


 
YurikGL ©   (2005-01-29 19:27) [55]


>  В принципе, если не нужно кушать, то лампочка это та же
> самая груша, но в рамках допустимых погрешностей работает
> аналогичо(выглядит, как груша).
>  Так что ли?

Свое понимание ИИ я привел выше.


 
Mystic ©   (2005-01-29 21:04) [56]

http://www.humanities.edu.ru/db/msg/26443


 
programania ©   (2005-01-30 02:17) [57]

>Anatoly Podgoretsky ©   (29.01.05 16:05) [40]
>Надо бы сначала дать четкое определение что такое интеллект,

Четким можно считать определение, по которому можно написать программу.
Для любого другого можно ставить вопросы "что значит..." пока
не будет ясно как написать программу или признано что определение не четко.
Значит определение ИИ и есть его создание.
Определять не создавая можно только результаты,
достаточные для признания существования ИИ.

>AndB ©   (29.01.05 16:34) [41]
>одного не пойму - зачем он нужен? ИИ?

Естественный И. не развивается последние 100k лет.
Главная цель создания ИИ его саморазвитие.
Если это будет, то ИИ может достигнуть любого уровня по экспоненте.
Все что у нас есть создано естественным И.
Если будет ИИ любого уровня, у нас будет все.
Поэтому предлагаю считать признаком создания ИИ
возможность его саморазвития,
и наплевать что все сразу поймут что общаются с нечеловеком,
это и есть его признак: он умнее.


 
Инк   (2005-01-30 04:33) [58]

>Ученый Грей Уолтер в 60-х годах придумал
и воплотил в жизнь кибернетическую черепашку,
которая пыталась достигнуть цели, подползала к зарядному
устройству, когда аккумулятор сдавал, вообщем, пыталась
выжить в суровых условиях.

Эта черепаха была построена на паре триггеров Причем подползала к ЗУ она исключительно благодаря прямому действию датчиков. В ней не было никакой централизованной системы которая играла бы роль ИИ - это была чистая автоматика

>А модель нейрона, повторюсь, построена давно. Вроде работает. Правда до воспроизведения структуры в лоб еще далеко.
Эта модель имеет только несколько логических входов/выходов и элементарна сама по себе. Нейрон подкорки обычного человека может иметь до 15,000 входов/выходов и может отвечать на импульсы по некоторым правилам. Как видим модель полностью не соответствует действительности. Программно он больше похож на изощренный класс или целую бибилиотеку

>Согласно сабжу интеллект и сознание уже объединены под общим названием ИИ. Интересно, а верно ли их так объединять?
А вот здесь ,как говорят, начинается интересное... В некотором смысле да, а скорее это одно целое. Есть что нибудь живое с сознанием но без интеллекта или с интеллектом но без сознания ? Нет . Сознание как бы надсистема над всем остальным. Когда мы слышим звук - мы его не раскладываем по частоте и амплитудам (хотя может некоторые системы и раскладывают но от сознания это скрыто). Сознание  не следствие интеллекта - а нечто другое. И вопрос можно даже поставить Не как сделать ? а Как представить сознание - а если это производное сложности системы. Что если взять не 5-10 нейронов с тысячами связей а десятки миллионов. После ее запуска мы уже не сможем сказать что в ней происзодит. К чему приведут элементарные действия миллионов достаточно сложных элементов.

На основе НС можно создать очень гибкую логику, но ИИ она будет только имитировать т.к  НС не осознает свое существование
Выход где-то в области НС . Ответ в структуре элементарных ячеек и "количестве переходящем в качество" - не все законы известны


 
kaif ©   (2005-01-30 05:12) [59]

А чем вам Яндекс не ИИ?
Задайте ему какой-нибудь вопрос.


 
Инк   (2005-01-30 05:31) [60]

От просто БД.
Если б был ИИ тогда бне выдавал при поиск s/n каждой второй ссылкой порнуху :)


 
Fay ©   (2005-01-30 05:55) [61]

2 Инк   (30.01.05 5:31) [60]
> Если б был ИИ тогда бне выдавал при поиск s/n каждой
> второй ссылкой порнуху :)

Когда я спрашиваю жену по телефону "Есть дома пожрать?", то она отвечает "А почему ты не спрашиваешь, как я себя чувствую?!". Но поверь, она куда круче Яндекса. 8)


 
kaif ©   (2005-01-30 06:14) [62]

Если ИИ - тот, кто отвечает на вопросы, то Яндекс и есть ИИ. А если этот ИИ заполнен порнухой, то так же устроен и обыкновенный И. Это нормально. Особенно если учесть, что Яндекс стадию приучения к горшку не проходил. Странно, что в нем вообще что-то кроме порнухи вообще можно найти.
 А кто сказал, что ИИ не база данных? ИМХО, база данных и есть ИИ. Если для кого-то таинственные "процессы в мозге" и есть И, то почему он думает, что эти процессы не сводятся к банальной базе данных? Просто она должна быть огромной и выдавать малопредсказуемый, но зато часто полезный результат. Чем выше непредсказуемость, тем выше информативность. А давайте проверим Яндекс на тест по IQ. Если Яндекс даст выше 100% IQ, то его интеллект лучше нашего.
 Предлагаю тест по IQ для Яндекса. Берем любой известный тест по IQ и набираем оттудова кусок. Спорим, ответы в Яндексе по этому тесту уже лежат? Так как он выдаст ответы быстрее любого чувака, то у Яндекса IQ выше, чем у любого чувака, так как IQ - это тест не только на поиск решения, но и на поиск его за определенное время. А если его IQ выше нашего, то это и есть тот самый ИИ, который мы ищем - тот, который заменит мозг наших детей и внуков, ибо в этом, как я подозреваю, главная цель всего человечества - остаться без мозга, но зато с Яндексом. Уверяю вас, через 30 лет высоко образованным человеком будет считаться тот пацак, что знает буквы алфавита и умеет их отыскать на клавиатуре, вместо того чтобы пользоваться, как все "нормальные пацаки", голосовым набором. Ку.


 
Инк   (2005-01-30 06:26) [63]

Но опять - таки это только имитация. Программа и не больше. Думаю Яндексу глубоко все равно что искать что показывать. БД только часть ИИ. Я думаю что без модулей анализа звука и изображения(вроде зрения) ИИ просто не сможет связать идентичные понятия и наоборот различить внешне похожие.
Пусть у системы нет зрения Как она поймет что понятия молоток и кувалда практически тождественны ? Оперировать абстрактным(система не может его сравнить и анализировать - не с чем) размером ? Это как складывать две кучки камней полностью отрицая понятие чисел и счета. ИИ должен иметь возможность анализировать данные минимум из 2 источников. А сравнивать ИИ с базой данных пусть и очень сложной.. Тоже самое что утверждать что суть сознания человека - его память. Она очень важна без нее мозг бесмыслен НО управляет всем этим что-то другое.


 
kaif ©   (2005-01-30 06:54) [64]

2 Инк   (30.01.05 06:26) [63]
 Согласно воззрениям материалистов нет никакого сознания. И мышления тоже нет. И души нет. Вообще ничего нет. Есть только "мозговой процесс". Так что имитатор И и есть ИИ.
Пусть у системы нет зрения Как она поймет что понятия молоток и кувалда практически тождественны ?
А кто сказал, что человек это понимает? Вот я до сих пор считал, что человек и кувалда -разные вещи. Теперь знаю, что между ними есть связь (благодаря Вам). В нейронной модели, имитирующей мой мозг, должен был вырасти новый дендрит, соединяющий аксон одной ганглиозно клетки с другой или измениться коэффициент звязи между какими-то клетками. В Яндексе этому соответствует прописывание метатэгов или еще какой-нибудь хрени, так что следующий раз набирающий "кувалда" увидит как статьи по кувалдам, так и по молоткам. И даже по революционному символу большевиков - серпу и молоту. Так как словарь Яндекса и там найдет что-то общее уже сам, на основе банальных статистик и без всяких нейронов.
 Вот Вы думаете, что Вы сейчас дома? Или на работе? фигушки. Все это лишние сущности. Не существует никакой работы и никакого дома. Это все розовые слоники и летающие большие зеленые камнеедки. Не существует ни зарплаты, ни дипломатических отношений, ни профессионалов, ни любителей, ни поэтов, ни придурков. Существуют только химические процессы окисления и электрические прцессы в мозгах. Под действием импульсов тела двигаются в пространстве туда-сюда, а Вам кажется, что у них есть работа, дом, семья, заботы. Все это чушь - лишние сущности типа Бога или чертей. Их глазом не видно, поэтому их нет. Д что там глазом? Вот кто-нибудь дипломатические отношения может прибором замерить? Или при помощи амперметра отличить офис от дома? Не может. Это все суть помещения для мсатериальных тел, которые только и существуют. Скоро всеми этими телами начнет управлять тот, у которого есть настоящий интеллект, который ИИ, то есть Яндекс. Вот тогда и наступит всеобщее счастье, которое тоже лишняя сущность.


 
kaif ©   (2005-01-30 07:05) [65]

И вообще. Распознавание молотка состоит не в том, чтобы кувалду уметь отличать. Вот Вы думаете, что человек может отличить кувалду? Очень сомневаюсь. Если кому-то надо, чтобы была кувалда, то он берет первую попавшуюся дубину или иной предмет и лупит им, пока чувство ненависти и гнева не сменится на жалость и сострадание. Или пока не забьется гвоздь при помощи плоскогубец в стул, который со знаком качества или лейблом ростеста. Вот Вы никогда не видели, чтобы фикусом гвоздь забивали? Или чтобы кувалдой телевизор чинили? А я видел.
 Сие называется у человеков фантазия. В Яндексе это называется плохая индексация базы данных. Так что если "недостаток когнитивной функции" у людей компенсируется так называемой "фантазией", то проблем у ИИ с этим делом тем более быть не может.


 
Инк   (2005-01-30 07:14) [66]

Ну что-то все-таки есть :)
Например отношение к чему-то на основе статистики не сделаешь
И все-таки я подняд этот топик не для того чтобы узнать есть ли Матрица (кстатит в ней в принципе сознание и интеллект на самом деле должно сохраняться и функционировать - ну и пусть все нарисовано - это только для внешнего наблюдателя !), а для того чтобы выести основы того что необходимо для функционорования ИИ
PS В Яндексе все таки кто то должен однажны связать молоток и кувалду. А сам по себе Яндекс такого вывода не сделает


 
YurikGL ©   (2005-01-30 08:30) [67]

>Четким можно считать определение, по которому можно написать программу.

Нифига подобного.

>kaif ©
Если при общении с яндексом ты не можешь понять дает тебе ответы машина или там человек сидит и анализирует, для тебе это будет ИИ.


 
вредитель   (2005-01-30 10:11) [68]

>Если при общении с яндексом ты не можешь понять дает тебе ответы машина или там человек сидит и анализирует, для тебе это будет ИИ.
Или ты сам ИИ, а Яндекс - И.:)


 
AndB ©   (2005-01-30 11:00) [69]

to [66]>> а для того чтобы выести основы того что необходимо для функционорования ИИ
вот я и намекнул своим имхо, что необходимы животные инстинкты для функционирования ИИ. Ну не будет у него никаких побудительных мотивов для выполнения к-либо мыслительной деятельности. Кирпич не имеет инстинкта самосохранения и ему в голову не придет отползти с проезжей части.. Как вы представляете привить эти инстинкты? Это будет просто программа обеспечения безопасности. Можно сказать, что и человек действует по такой же программе. Точь в точь. И как в любой программе невозможно заложить базу всех мыслимых опасностей, рано или поздно этот ИИ "погибнет" от укуса маленького паучка.. которого забыли описать создатели.. Но у естественного интеллекта сработает интуиция, чувство брезгливости, да просто настроение, наконец! Вот не расположен я сегодня, что б по мне паучки бегали :)
А не обладая инстинктами ИИ будет просто "отвечателем на вопросы".
[44] >> Для того что-бы создать модель чего либо не всегда обязательно знать, как оно внутри устроено.
Действительно, давным-давно, не помню в какой фантастике вычитал мысль (перефразируя): если долго наблюдать за поведением некоего "черного ящика" и пытаться смоделировать его поведение - в конечном итоге мы воспроизведем и его внутреннее строение.
Так и - зачем? в данном случае? или чей И мы хотим воспроизвести? Если человеческий, то для этого есть более увлекательные методы.. Кстати, ([54]) убогих ресурсов человеческого интеллекта достанет на то, что бы не только создать искусственный, но и... обойтись без него! Тут я склоняюсь к мнению, что развитие скорее пойдет по пути "скрещивания" т.е. киборги. Хоть заврта не откажусь впаять в мозги пару-тройку гигов оперативки + выделенку через левое ухо для подключения к гуглу.. :)


 
YurikGL ©   (2005-01-30 11:09) [70]


> И как в любой программе невозможно заложить базу всех мыслимых
> опасностей, рано или поздно этот ИИ "погибнет" от укуса
> маленького паучка.. которого забыли описать создатели..
> Но у естественного интеллекта сработает интуиция, чувство
> брезгливости, да просто настроение, наконец!

Чувство брезгливости тоже можно описать. И даже настроение... Принципиальных ограничений здесь нет.


 
AndB ©   (2005-01-30 11:12) [71]

ну и, к слову, не только инстинкты движут естественным И.. есть еще и "лишние сущности", как то: честь, совесть, стыд.. И отдельные такие сущности оказываются сильнее инстинктов, откуда иначе факты самопожертвований (спасти др.особь ценой собств.жизни, т.е. "задавить" основной инстинкт) и т.п.?
Интересно, станет ли яндексу стыдно за неверно данный ответ?


 
AndB ©   (2005-01-30 11:17) [72]

to [70] изумительно! Вот и опишите алгоритм действия ИИ в предложенной ситуации - с одной стороны заботиться о собственой сохранности :: с другой - спасти жизнь "высшего существа" не в ущерб другим коллегам и прочим богам. :)


 
YurikGL ©   (2005-01-30 11:46) [73]


> AndB ©   (30.01.05 11:12) [71]


> ну и, к слову, не только инстинкты движут естественным И..

Психологи говорят, что только инстинкты... И их всего лишь три. См выше.


> Вот и опишите алгоритм действия ИИ в предложенной ситуации
> - с одной стороны заботиться о собственой сохранности ::
> с другой - спасти жизнь "высшего существа" не в ущерб другим
> коллегам и прочим богам. :)

Механизмы нечеткой логигики решают такие задачи не хуже человека.


 
вредитель   (2005-01-30 13:31) [74]

AndB
>необходимы животные инстинкты для функционирования ИИ
Это есть лишнее, если понимать интеллект как способность решать задачи на основе программируемой логики. Т.е. интеллект должен делать то, что не заложено механизмами его реализации. Такая способность называется способностью к творчеству. Т.о. важны две составляющие - инстинкт самосохранения - единственная потребность чисто информационной сущности и способность к творчеству.


>Ну не будет у него никаких побудительных мотивов для выполнения к-либо мыслительной деятельности
Таким мотивом должны являться мы.

>Кстати, ([54]) убогих ресурсов человеческого интеллекта достанет на то, что бы не только создать искусственный, но и... обойтись без него!
Аргументы в студию. В процессе познания, открывая все больше человек получает все растущее количество вопросов. На определенном этапе человек не сможет заниматься всеми вопросами и ему придется выбирать, какие вопросы решать, а какие нет. Самое веселое в том, что вопрос, показавшийся малопереспективным и поэтому отброшенный может нести в себе большие выгоды, однако взамен него решается другой, менее переспективный вопрос, на который отведены некоторые ресурсы, количество которых ограничено. Т.е. человечество пойдет по пути сверхспециализации и в конечном итоге загнется. Выходом из этой проблемы является создание творческого усилителя интеллекта. Я очень надеюсь на то, что это ему удастся.


 
kaif ©   (2005-01-30 14:22) [75]

В процессе познания, открывая все больше человек получает все растущее количество вопросов.

 Как зовут человека, о котором идет речь? Где живет этот чел? Или речь идет о "человеке вообще"? Где тот человек вообще, который "задает все больше вопросов"? Опять какая-то лишняя сущность. Вот Бога типа нету, а "человек вообще" - есть.
 Я знаю, как все будет происходить. Никакого ИИ вообще не будет. Сначала всех пересчитают, всем присвоят ID и встроят чип со штрих-кодом на лоб и на руку, а может и на задницу. Затем всем встроят более продвинутый чип в мозг. Этот чип будет "мозговые процессы" (или просто сигналы с дополнительных искусственных рецепторов типа усиков или примитивных видеокамер) передавать прямо на Яндекс в виде строки поиска. А Правительство всех обяжет команды Яндекса исполнять в целях безопасности и борьбы с терроризмом. Всякий, кто команду исполнять не будет, в ЖЭКЕ не получит форму №9.
 Вот наши дети уже нашли, как отвечать на вопросы, на который их мозг отвечать уже не в силах - они юзают Яндекс. Нужно написать сочинение "Базаров - рулит" - пожалуйста в Яндексе 100шт. Нужно написать "Базаров - отстой" - пожалуйста еще 100 таких же гениальных и без орфографических ошибок. Так что оптимизация будет идти по пути сокращения лишних сущностей между училкой и Яндексом. Училка спрашивает, сколько будет 2x2, ученик, если он "в сети", пересылает запрос на Яндекс - тот отвечает, язык ученияка тоже к чипу подключен - все в порядке. С практической точки зрения разницы нет - ученик знает или Яндекс за него отвечает. Важен результат. А все остальное - лишние сущности. Воз зачем, к примеру, мозг? Только место в голове занимает. а там моожно вместо мозга знаете сколько полезных модемов разместить? Даже для принтера место останется. И обработка информации будет более централизованная. Вот YuriGL не даст соврать - любая централизованная обработка более антикризисная, чем децентрализованная. Следовательно, мозг не нужен. А нужен хороший модем и короший конвертор сигналов от рецепторов туда лальше в сеть. Никакой ИИ нафик не нужен. Нужен чел, который есть двуногое без перьев и без мозгов.


 
YurikGL ©   (2005-01-30 14:29) [76]


> kaif ©   (30.01.05 14:22) [75]


> Сначала всех пересчитают, всем присвоят ID и встроят чип
> со штрих-кодом на лоб и на руку, а может и на задницу.

Очень может быть....

> Вот YuriGL не даст соврать - любая централизованная обработка
> более антикризисная, чем децентрализованная.

Ага...только в нормальном состоянии, она менее эффективна. Т.е. надо построить такую систему, которая бы централизовывалась в кризисных ситуациях и децентрализовывалась в не-кризисных... вот только> Нужен чел, который есть двуногое без перьев и без мозгов. кому нужен? Если только тем, кто это все определяет...


 
kaif ©   (2005-01-30 14:45) [77]

Человечество должно превратиться в муравейник. Вот конкретный муравей не важен. Важен муравей вообще. Муравей вообще имеет ряд интересов, например, жить полноценно в лесу и съесть, если понадобится, дохлого (а то и живого зазевавшегося!) быка. Отдельные муравьи это не могут, поэтому у них имеется сеть. Химическая. Каждый муравей ходит по химической сети и оставляет сигналы для других муравьев. Сами муравьи имеют по одной зрительной фасетке. Зато муравей вообще имеет миллиард таких фасеток, так как это сеть. Собственно, возможно, муравьи раньше имели больше фасеток, так как у муравья-воина их целых 12 штук. У стрекозы их для сранения 80 тысяч в каждом глазу. А у человека их пока около 6 млн в каждом глазу плюс объектив самонаводящийся. Но скоро у нас у всех тоже будет ровно по одной фасетке. Человеку вообще совсем не нужна такая роскошь, как 6 млн фасеток в глазу у каждой отдельной особи. Это ровно (6*10^6 - 1) лишних сущностей. Так как для выживания человека вообще нужна экономия ресурсов на местах и централизация ресурсов в центре ответственности, то есть в Кремле. В Кремле будет сидеть большая человеческая Матка (не подумайте чего-то не то), которая путем клонирования и генной инженерии будет штамповать однофасеточных граждан без мозга, но с модемом в голове. А человек вообще будет отвечать на все новые и новые вопросы, которые вообще на этом "пути познания" будут возникать. Например, как увеличить производительность отдельных особей для целей выживаемости человека вообще? Нужно ли их сделать более мелкими и подвижными, снабдить их еще дополнительной парой конечностей, так как на шести ногах очевидно удобнее перемещаться, чем на четырех, я уже не говорю о двух. Размер отдельных граждан можно будет уменьшить до одного дюйма в длину (оптимизация особей по размеру), чтобы они могли поднимать вес, соизмеримый с весом собственного тела. Еще неплохо сдеать так, чтобы они больно кусались, тогда можно сократить количество человеков-воинов с 12 фасетками, которые все равно ничего не производят, а только хлеб жрут. Я лично вижу большое будущее у человечества без всякого ИИ. Достаточно иметь Правительство, Сеть и Благие намерения во имя Человека вообще.


 
YurikGL ©   (2005-01-30 14:52) [78]

>А у человека их пока около 6 млн в каждом глазу плюс объектив самонаводящийся.

У человека, если я не ошибаюсь, не фасеточное зрение :-)


 
kaif ©   (2005-01-30 15:06) [79]

YurikGL ©   (30.01.05 14:52) [78]
>А у человека их пока около 6 млн в каждом глазу плюс объектив самонаводящийся.

У человека, если я не ошибаюсь, не фасеточное зрение :-)

 Хорошо. У человека лишних 6 млн - 1 палочек и колбочек. Так я точно выразился? Суть хотя бы ясна того, что я хочу сказать или я уже незаметно для себя с ИИ беседую?
 У человека много чего лишнего есть. Например, чувство юмора.   Кстати, как Вы собираетесь его моделировать при помощи нейронных сетей? Я вот знаю кучу людей, у всех в головах имеется мозг и в каждом их этих мозгов куча каких-то "процессов". Но у одних чувство юмора присутстсвует, а у других его отродясь не было. Фрейд учил, что чувство юмора связано с работой бессознательной психики, то есть происходит в конечном счете из приучения к горшку. Как реализовать чувство юмора у ИИ? А самое для меня интересно, это вот что: какие процессы в ИИ будут "сознательными", а какие "бессознательными" и как отличать одни от других, если сознание, интеллект и процессы в мозгу или в нейронных сетях суть лишь "разные навания" для одного и того же?


 
YurikGL ©   (2005-01-30 15:15) [80]

>Например, чувство юмора.   Кстати, как Вы собираетесь его
>моделировать при помощи нейронных сетей?

Обучить юмору можно точно так же, как и любой другой оценке.


 
AndB ©   (2005-01-30 15:22) [81]

[80]
начинайте прямо здесь! :)
Пост №80 предлагаю считать первым параграфом "Учебника по юмору"


 
kaif ©   (2005-01-30 15:23) [82]

Вообще Яндекс это и есть ИИ.
У него есть даже чувство юмора. Вот я только что решил проверить, как мыслит Яндекс. Я задал один простой вопрос.

В чем истина?

И вот что ответил Яндекс:
1. Сентенции старца (из цикла подражаний Омару Хайяму)

  и это на первом месте! то есть у чувака юмора хоть отбавляй!

2. Гнусны те люди, которые знают, в чем истина но стоят за нее, лишь пока им это выгодно, а потом отстраняются
  то есть свое мнение у Яндекса тоже есть. И ненависть ко всяким разным.

3. В чем истина? Кучуков Алексей Петрович, Петр Алексеевич, Грешник, издание, книга, сборник, роман, русская поэзия, размер, ритм, такт, тексты, стих, зарисовки, проза, поэма, признания, размышления, строчки, строфы,

 то есть на третьем месте - философия. Молодец!

4. А в чем истина-то? И как я Вас обозвал? ("Телесистемы": Конференция ...

 на четвертом телешоу

5.Саратовская ГТРК / В чем истина? В политическом моменте. Послесловие к ...
В чем истина?


 на пятом месте политический аспект

6. Покровка, 7 - В чем истина? В воде!
nbsp;nbsp;nbsp;nbsp; nbsp; nbsp;nbsp;nbsp;nbsp;Из трехлитровой банки с прошлогодней крещенской водой повеяло такой свежестью, какой вряд ли может похвастаться даже свежая вода из-под крана. Простояв
В чем истина?


 то есть на шестом месте бытовые проблемы населения

7. Альтернативный форум
В чем истина??
В чем истина??


 это символично - на седьмом месте форум

8. Санкт-Петербургский Творческий Cоюз Журналистов / "Кросс-Медиа"
Ответ пятый о том, в чем истина


 журналисты, как всегда все уже знают заранее

9. Портал MyImage.Ru - Опросы
В чем истина?


 налицо рефлексия Яндекса и дурацкая манера отвечать вопросом нп вопрос.

 ИМХО, это не просто интерллект. Это настолько мощный интеллект, что нашего человеческого интеллекта пока недостаточно, чтобы понять всю глубину его глубокомысля. А вопрос-то был сложный! Но как он ловко ушел от ответа! Сильный, гад. Опытный. Я щас задам ему конкретнее!
 Искать в найденном  к "В чем истина?"  добавляю слово "конкретно" и "в регионе Петербург".
 Итак.

mse1.spb.ru :: Просмотр темы - "Новую заповедь даю вам"
Я пишу конкретно и прямо.
ПОтому и спрашиваю уже в который раз, в чем конкретно найден грех мой и отступление от истины Евангельской?


Как видим склонность ИИ к религии и чувству вины гораздо сильнее, чем можно было подумать...


 
вредитель   (2005-01-30 15:26) [83]

>Где тот человек вообще, который "задает все больше вопросов"?
Я думаю, что все (большинство) друг-друга прекрасно поняли. Собственно термин "человек", в данном случае, происходит из стереотипного мышления, под которым понимается человечество. К сожалению, не все еще на этом форуме достигли просветления, поэтому, дабы избежать несостыковок с нашими несовершенными лингвистическими мета-моделями, давайте общаться в форме Бэкуса-Наура. Впрочем, такое резкое противопоставление общего и целого может быть причиной дуалистичного взгляда на этот вопрос, свойственному европейскому способу мышления (да не к ночи буде помяното мышление чертово).

>Опять какая-то лишняя сущность.
Бритва Окама, инструмент конечно полезный, однако он может иногда закрывать путь к истине, ибо явления, объяснимые без необходимости введения некоторых лишних сущностей, вполне могут этими сущностями вызываться, об этом забывать тоже не стоит. Доверяй, как говорится, но проверяй.

Вот Бога типа нету, а "человек вообще" - есть. Действительно, как-то обидно даже.

>А человек вообще будет отвечать на все новые и новые вопросы, которые вообще на этом "пути познания" будут возникать. Например, как увеличить производительность отдельных особей для целей выживаемости человека вообще?
Увеличить..... Для устойчивого существования необходима не экспанисия ресурсов, энергии, особей, а эффективное регулирование, дабы оставаться в рамках, позволяющих обеспечить существование. Человек должен отвечать на все вопросы ради регулирования. Вы это хотели сказать? И чего здесь такого?

>ужно ли их сделать более мелкими и подвижными, снабдить их еще дополнительной парой конечностей, так как на шести ногах очевидно удобнее перемещаться, чем на четырех, я уже не говорю о двух.
Очень здравая идея.

>В Кремле будет сидеть большая человеческая Матка (не подумайте чего-то не то), которая путем клонирования и генной инженерии будет штамповать однофасеточных граждан без мозга, но с модемом в голове.
Срочно доктора, жизнь человека в опасности......


 
kaif ©   (2005-01-30 15:28) [84]

2 YurikGL ©   (30.01.05 15:15) [80]
 Круто!!!!!!
 Нафиг ИИ ?
 Если у Вас есть алгоритм юмора - пишите мне на mail. Все переговоры шифруем двойным ключом. Нобелевку делим пополам - минимум полмиллиона долларов на рыло. Никому больше не говорите!


 
YurikGL ©   (2005-01-30 15:33) [85]


> kaif ©   (30.01.05 15:28) [84]

Есть алгоритм получения правил юмора... но вот он требует больших исходных данных. Если Вы их соберете - пожалуйста! Остальное -  дело техники.


 
kaif ©   (2005-01-30 15:33) [86]

вредитель   (30.01.05 15:26) [83]

Вы полагаете, что человек вообще существует?
Покажите, докажите, объясните.
Мне лично пока непонятно, о чем здесь может идти речь.


 
kaif ©   (2005-01-30 15:34) [87]

YurikGL ©   (30.01.05 15:33) [85]

> kaif ©   (30.01.05 15:28) [84]

Есть алгоритм получения правил юмора... но вот он требует больших исходных данных.


Ну так в чем же алгоритм-то? Данные мы купим - не беспокойтесь. Овчинка стоит выделки.


 
kaif ©   (2005-01-30 15:44) [88]

2 YurikGL ©   (30.01.05 15:33) [85]
Я одного не пойму. Что такое алгоритм получения правил? Тогда зачем не написать сразу алгоритм получения алгоритмов?
Я ПОНЯЛ!!!!!!!!!!!!!!!

ИИ ЕСТЬ АЛГОРИТМ ПОЛУЧЕНИЯ ПРАВИЛЬЛЬНЫХ АЛГОРИТМОВ.

Осталось, чтобы YurikGL подтвердил, что в этом он тоже не видит проблемы и вопрос можно считать закрытым. Определение мы нашли, основания для того, чтобы быть уверенными, что эта задача более чем тривиальна, согласно мнению YurikGL тоже имеются (почему бы не поверить ему на слово?). Все настолько просто, что даже думать лень. Пусть нейронная сеть и придумывает, как ИИ создать. Итак, у меня есть идея.
YurikGL, Вы так много говорите о нейронных сетях. Видно у Вас дома установлена такая сеть. Или на работе. Так как она делает то же самое, что и наш мозг, я Вас прошу, в понедельник поручите ей самой создать ИИ. Зачем нам этим заниматься. Пусть компутер задачу и решает. Вы же утверждаете, что нейронная сеть любую задачу решить может. Вот пусть и решит для начала задачу "как должен быть устроен ИИ?". Хотя бы в общих чертах. Если нейронная сеть через час ответит "точно так же, как устроена я", то тогда нам остается решить вопросы политкорректности и можно выходить на рынок с новым инвестиционным продуктом - ИИ. Возьмете, YurikGL кредит на 30 млн доллларов? Вы же уверены в своей правоте. Вам бояться нечего. Так беретесь сделать? Бабки я найду, если Вы убедите экспертов.


 
kaif ©   (2005-01-30 15:52) [89]

Кстати о политкорректности. Я против того, чтобы ИИ был ОН. Кто сказал, что ИИ мужчина? Может быть это ОНА...
 Предлагаю для политкорректности принять, что ИИ это ОНО.
 И обращаться к нему нужно уважительно. То есть на Вы. За глаза можно говорить "Оно сказало". А в глаза "Как Вы думаете, сэр?" Нет. Сэр плохо. На мужчину смахивает. "Как Вы думаете, уважаемое?". О! Точно!
- Глубокоуважаемое Вы. Что Вы думаете о триединой природе христианского Бога? Это триединая природа или единство трех  отдельных природ?
- ИМХО (согласно моему многуважаемому мнению) триединая природа христианского Бога неразрывно связана с тремя частями и тремя источниками диалектического материализма через Дух Святый.
- А... Понятно. А как это конкретно связано, многоуважаемое Вы?
- Конкретно связано диалектически.
- А... Понятно. А каковы будут ценные указания народу?
- Продолжайте в том же духе. И да хранит нас (мое многоуважаемое величество) Господь, который сущ.
- А он сущ?
- А как же?
- А доказать можете?
- Нет. Знаю.
- А... Пойду ребятам скажу, что этот вопрос уже решен.


 
YurikGL ©   (2005-01-30 16:07) [90]


> kaif ©   (30.01.05 15:44) [88]


> Я одного не пойму. Что такое алгоритм получения правил?

обучение НС+яндекс...


> Тогда зачем не написать сразу алгоритм получения алгоритмов?

Есть и такие:
1) Набор фактов
2) Выдвижение гипотезы
3) Проверка гипотезы на корректность
4) Подтверждение или опровержение гипотезы и переход на 2)

Осталось только формализовать...

Кстати, dataminig+google почитайте...


 
вредитель   (2005-01-30 16:14) [91]

Т.н. Юмор - прежде всего это ВАША реакция. Происходит это примерно так: вы начинаете воспринимать некое утверждение. Воспринимая, вы анализируете воспринятую вами часть и достраиваете остальное. Если оставшаяся часть не совпадает с тем, что выстроили вы, то это воспринимается как юмор. Анализ происходит очень быстро и скрыт от сознания, в совокупности с результатом восприятия действительной части утверждения происходит некое перенапряжение, в результате чего срабатывает защитная реакция разрядки, воздействующая на центр удовольствия в известной всем форме. Как видно, юмор сильно завязан на "железе" (ессно у всех "железо" разное) и ИИ можно лишь обучить пользоваться в своих корыстных целях описанной реакцией человеческого организма, что скорее всего будет возможно после вскрытия соответствующих механизмов работы мозга.

А самое для меня интересно, это вот что: какие процессы в ИИ будут "сознательными", а какие "бессознательными" и как отличать одни от других, если сознание, интеллект и процессы в мозгу или в нейронных сетях суть лишь "разные навания" для одного и того же?

А надо ли оно. Подсознание есть следствие соматической направленности мозга, большая часть ресурсов которого занята физиологическими процессами. Подсознание подобно скрытым регистрам, способным обеспечить вашему телу велосипедную прогулку, без отвлечения вашего сознания на рутинную работу кручения педалей. Интуиция лишь робкий шаг в подобном направлении. Может быть выяснение механизмов интуиции, их совершенствование и явное ими оперирование даст больший эффект, вы как считаете?

>Вы полагаете, что человек вообще существует?
Покажите, докажите, объясните.
Мне лично пока непонятно, о чем здесь может идти речь.


Если вы об этом
Вот Бога типа нету, а "человек вообще" - есть. Действительно, как-то обидно даже.
то мое ехидство заключалось лишь по поводу части фразы про Бога.
Человек вообще - лишь удобная абстракция, применение которой оправдано на определенном абстракции уровне и используется в юридичских, например вопросах. Возведение же его в крайность, на мой взгляд, опасно, как и всякая крайность сама по себе.


 
хм ©   (2005-01-30 18:30) [92]

>Естественный И. не развивается последние 100k лет.
why?
Должен развиватся, в т.ч. и всякие чувства юмора.
http://www.ethology.ru/library/?id=155


 
Chuvak ©   (2005-01-30 18:33) [93]

Всё реально... Было бы желание... и руки.


 
хм ©   (2005-01-30 18:48) [94]

>Chuvak ©   (30.01.05 18:33) [93]
>Всё реально... Было бы желание... и руки.
может сначала создать искуственные руки? :)


 
хм ©   (2005-01-30 18:49) [95]

искусственные
я не ошибся, клавиши залипают :]


 
хм ©   (2005-01-30 18:53) [96]

>YurikGL ©   (30.01.05 15:15) [80]
>Обучить юмору можно точно так же, как и любой другой оценке.
Чтобы чувство юмора смоделировать нужно смоделировать интеллект, потому что это чувство тестом для него является.


 
YurikGL ©   (2005-01-30 19:13) [97]


> Чтобы чувство юмора смоделировать нужно смоделировать интеллект

Чувсто юмора, по крайней мере, примитивного, не так сложно смоделировать. Сложности только технические.


 
хм ©   (2005-01-30 19:44) [98]

>YurikGL ©   (30.01.05 19:13) [97]
>Чувсто юмора, по крайней мере, примитивного, не так сложно смоделировать. Сложности только технические.
Ну напишите ТЗ хотя бы. Завтра пойду, помоделирую =]


 
YurikGL ©   (2005-01-30 19:58) [99]


> Ну напишите ТЗ хотя бы. Завтра пойду, помоделирую =]

Если нужен весь юмор то:
1) Перечисляем все образы языка
2) Перечисляем все слова языка
3) Устанавливаем отношения многие ко многим между упорядоченными множествами слов (т.е. словосочетаниями) и образами. Характеристикой отношения назовем соответсвие конкретного словосочетнаия конкретному образу
4) Берем N людей. Даем им все упорядоченные множества образов и они оценивают по k-бальной шкале u-мерной размерности юморность. Потом выравнив эти оценки получим оценщик юмора.


 
хм ©   (2005-01-30 20:10) [100]

>YurikGL ©   (30.01.05 19:58) [99]
Оценщик это ладно.(хотя очень уж алгоритм неоптимальный) Я про генератор спрашивал.


 
YurikGL ©   (2005-01-30 21:13) [101]


> Оценщик это ладно.(хотя очень уж алгоритм неоптимальный)
> Я про генератор спрашивал.

А что генератор? Берем НС под названием автоассоциатор, на часть входов подаем окружающие образы, а на оставшихся входах получаем наиболее юмористические образы в тему. Вот и все.


 
kaif ©   (2005-01-30 22:24) [102]

2 YurikGL ©  
Ну так возьмите и сделайте. А мы потестируем. Вы же дельфист, надо полагать. И знаете, как устроены нейронные сети. Ну дык сделайте хоть что-нибудь. Ставлю $1000, что не сделаете Вы никакого "оценщика юмора". Даже самого "примитивного". При том, что у Вас имеется (судя по Вашим заявлениям) ясное знание того, что такое нейронная сеть и того, как она задачи решает. Сделайте! Если бы я знал, я бы уже сделал. Держу пари, что Вы не сможете этого сделать. Принимаете пари?


 
хм ©   (2005-01-30 23:15) [103]

>YurikGL ©   (30.01.05 21:13) [101]
этот "генератор" мало чем от яндекса отличатся будет. Ну вместо строки для ввода тестов сенсор, который образы формализует. А внутри - поисковый движок. Очень хороший(?) поисковый движок. Можно запатентовать технологию мегарелевантых движков, но с юмором она ничего общего иметь не будет.
MathCad тогда видимо надо собирать так: берем нейросеть на 2^2^32 нейронов и начинаем ей скармливать тонну формул. Потом еще тонну. И еще две. Ура, у нас ИИ, решаюший формулы?!

Итак, пусть у Вас есть нейросеть в 10^15 узлов.
Как Вы её обучать будете, чтобы она по радио(сетка-то эта немаханькая будет) управляла... кошкой например.Ну и чтобы эта кошка тест Тьюринга прошла( и чтобы она считала себя кошкой).
Кстати, интересно, где "сознание" у такой кошки находится будет?


 
Инк   (2005-01-31 03:11) [104]

Пояыилось такое  соображение.
В принципе мы не можем представить и понять сознание других.
Т.е нам одинаково есь оно у другого или нет. Главное чтобы ответы на вопросы или действия были логичны в данной ситуации.
Вопрос - что же такое сознание и как его представить ?

PS Интересно а в мозге есть подобие OS ? или он реализован только в "железе" ?


 
Инк   (2005-01-31 03:17) [105]

А как по вашему работает мозг человека ?
Приму даже ответ "душа" если мне объяснят как она устроена (может это тоже своего рода ОС ,как говорят выключенный и включенный ЦП внешне не отличаются а вот процессы в них разные...)


 
AndB ©   (2005-01-31 03:36) [106]

to [99]
1) хорошо, что коровы не летают.. (без информации о предшествующей птичке - не смешно, однако поставим 3 балла)
2) крокодилы летают, только низко-низко.. (без солдата-прапорщика и майора - не смешно, однако: 3б)
3) хорошо, что коровы низко не летают.. (или "хорошо, что крокодилы низко летают..")
Оцените пункт 3. А лучше - создайте правило!..

А вот еще "подумалось".. ну, фиг с ней, с политкорректностью.. Он, она, оно... Интересно, вы предполагаете создание одного эдакого планетарного ИИ или много-много маленьких?? :) Или вот механизмы и автоматы (роботы, прочччч..) наделенные ИИ - они будут все одинаково "умные", или в меру надобности? Т.е. одни будут изрядно умными (начальники), другие - так себе, а третьи - на уровне "подай, принеси, пошел дальше.."? Гдетто я уже такое видел.. Или если они все будут равноценные по уровню интеллекта - то откуда же возмется "способность к творчеству" ([74]) Если "один-я" не способен чего то придумать, то и "десять-меня" будут так же тупо взирать на звезды...
Примитивное, говоришь, чувство юмора несложно?.. а ведь одна и та же ситуация на берегу моря в солнечный день вызовет улыбку, а в пасмурный день в тундре - нет.. Смоделируем? Или примитивное настолько, что б Оно хохотало при виде молчащего Петросяна? :)

ЗЫ: надеюсь, вы простите мое отсутствие на презентации "автоматизированной огневой точки с чувством юмора"?
или различные модели ИИ будут комплектоваться "блоком юмора" опционально, в зависимости от модификации и предполагаемой сферы деятельности?? :))
ЗЗЫ: {где же я это уже видел?!..}


 
kaif ©   (2005-01-31 03:59) [107]

Вера в ИИ это не что иное, как суррогат веры в Бога. Все, кто верит в Бога или что-то подобное, скептически воспринимают идеи о возможности даже определить ИИ. А те, кто в Бога не верит, свято верят в ИИ, который будет "нас превосходить" по способностям. А те, кто уверен, что сознание есть не что иное, как "процесс в мозге", вообще считают ИИ тривиальной задачей - нагородили модель нейронов, "обучили" как-нибудь - и вперед. Тольк они забывают, что слово "обучили" в отношении нейронных систем хоть и звучит так же, но не есть то же самое, как обучение детей в школе. То есть слово-то одно, а вот понятия это совершенно разные. Учителю вовсе не достаточно того, чтобы ученик "выработал навык". Учителю нужно, чтобы ученик еще и "соображал". А вот с соображением у нейронных сетей довольно туго. Даже у Яндекса лучше с этим делом. Так что не всякий машущий крыльями предмет влетит в воздух и будет вить гнезда.


 
kaif ©   (2005-01-31 04:07) [108]

Кстати такой вопрос к материалистам. А если вы создадите ИИ и он вам скажет "Бог существует", вы поверите его авторитету только на том основании, что его интеллект мощнее вашего? Ведь переубедить тогда вы его не сможете. Допустим он скажет "Иисус Христос имел и имеет бОльшее влияние на историю, чем Александр Великий. Инструкции Иисуса до сих пор вами исполняются. Он реальнее, чем многое из того, что вы считаете реальным. Он реальнее Юпитера и Луны. Так как вращение Юпитера практически не влияет на вашу жизнь, а всякая новая интерпретация сказанного Иисусом приводит к революциям и мировым войнам." Что вы ему сможете ответить на это?


 
хм ©   (2005-01-31 04:11) [109]

>Инк   (31.01.05 03:11) [104]
>PS Интересно а в мозге есть подобие OS ? или он реализован только в "железе" ?
OS разве на железном уровне? Ось выше работает. На железном работают электроны. Ось появляется гораааздо выше.
А то, что у мозга есть несколько уровней работы может любой проверить. Достаточно выпить русского народного диссоциатива Vodka(tm). Ну или декстрометорфана, что лучше для чистоты эксперимента, потому что сопутствующих эффектов меньше.
Диссоциативы нейросеть(tm) рушат, особенно на этапе мозг-тело, поэтому наблюдается сначала потеря координации, потом начинаешь путать - закрыты, или открыты глаза(где в висках есть драйвер 3D окружения, он держится очень долго, в отличие от глаз), потом анестезия, потом наркоз с жуткими глюками. (для Vodka(tm), это не характерно, потому что мозги в таких дозах скорее растворятся).
Вывод - мозг без тела работать может, только вам он об этом не скажет. Сознание при этом летает в космосе и четырехмерных мирах.
Это для тех, кто науке не верит :)


 
Инк   (2005-01-31 05:36) [110]

AndB
а откуда взялись умные начальники ?


 
Инк   (2005-01-31 05:42) [111]

А если серьезно
Возьмем оовременный ПК и человека который не знает ни программирования ни электроники и у него нет никаких приборов
Вопрос : как он узнает что и как именно управляет ПК ?


 
AndB ©   (2005-01-31 05:48) [112]

to [110] это я о себе.. ;))


 
YurikGL ©   (2005-01-31 07:23) [113]


> Ну так возьмите и сделайте.

С Вас исходные данные....

> этот "генератор" мало чем от яндекса отличатся будет.
А человек, тогда, чем от яндекса отличается? Данная система будет повторять среднестатистического человека в плане юмора.


 
КаПиБаРа ©   (2005-01-31 08:31) [114]

Когда-то давно, во времена охоты на птеродактилей люди думали что летать могут только птицы (ну и насекомые там всякие). Возможно они подозревали, что летать могут не только птицы, но модели первых летательных аппаратов были почему-то с перьями и этими "крыльями" нужно было махать в полете.
Однако, спустя много лет был изобретен самолет, потом вертолет с ракетой. И как ни странно эти летательные аппараты не машут крыльями, не имеют перьев, не вьют гнезда. Они имеют лишь одну полезную функцию - они могут летать.
Так вот по поводу ИИ хочу сказать, что нечто, изобретенное человеком которое будет "думать", совсем не обязательно будет писать стихи, юморить, и т.д. Оно будет выполнять лишь то для чего предназначено и в этой области будет превосходить человека. Не будет такого ИИ который и стихи пишет, и анекдоты травит за рюмочкой коньяка, а в свободное время теорию относительности совершенствует. Пока не будет. Потом посмотрим...


 
вредитель   (2005-01-31 09:51) [115]

>Вера в ИИ это не что иное, как суррогат веры в Бога.
Возможно вы правы, однако, фраза построена весьма интересно. Под суррогатом понимается нечто ненастоящее, фальшивка, заменитель. Мне думается, что веру в ИИ стоит поставить на один уровень с верой в Бога. Правда, хочу заметить, что в Боге человек видит доминанта, а в ИИ слугу, поэтому, характер данных переживаний несколько отличается.

>Кстати такой вопрос к материалистам. А если вы создадите ИИ и он вам скажет "Бог существует", вы поверите его авторитету только на том основании, что его интеллект мощнее вашего?
Допустим, мы создадим ИИ, он нам скажет, что "Бог существует". "Поверим ли мы его авторитету", только на том основании, что его интеллект "мощнее" нашего? Тут, повидимому, все дело в слове мощнее. Каким бы "мощным" ни был интеллект, ему не дано проникнуть за грань метафизики, созданной интеллектом естесственным, ибо он существует в той же реальности, в которой существуем и мы. Собственно и без ИИ видно, что Христос оказывает влияние на общество больше чем Марс с Юпитером и Плутоном, вместе взятыми. Христа можно считать реальным, как образ, имеющий информационную природу, точно такую же, какую имеет и общество. На мой взгляд подобное сравнение взаимного влияния предметов, из несколько разных областей немного некорректно (кстати, сравнение в весьма материалистическом духе, ибо о божьей воле и провидении ничего сказано небыло:).
Встречный вопрос, а что будет если клирики создадут ИИ и он им скажет, что Бог существует? Хотя, описание подобных событий уже приведено у Дена Симмонса в "Эндимионе".

>Вопрос - что же такое сознание и как его представить?
На мой взгляд, сознание рождается на стыке восприятия и мышления, ибо сложно представить себе сознание без этих компонентов.
Какие еще есть мнения?<|:)=


 
КаПиБаРа ©   (2005-01-31 11:04) [116]

Еще вопрос. Зачем создавать ИИ? Какая у него цель будет? Если цель у него выжить, то как было замечено ранее он усядется возле розетки и ничем его оттуда не сдвинешь. Вырастет еще один лентяй.
А если дать ему глобальную цель, которую он должен решить, например найти внеземные цивилизации, то ему уже не придется сидеть у розетки, а придется шевелить мозгами. А плоды его трудов человечество может использовать в своих целях, новые технологии, новые еще не открытые законы вселенной, да просто рабочие места. Конечно в результате этот ИИ может нечаяно загубить человечество или планету загадить, но это уже будет зависеть от того что в него заложат.


 
вредитель   (2005-01-31 11:09) [117]

>но это уже будет зависеть от того что в него заложат.
Об этом уже говорилось. В идеале, поведение ИИ мало должно зависеть от того, что в него заложат, хотя цель должна быть. Должен ли быть ИИ автономным - большой вопрос. Мне более рациональной кажется точка зрения об усилителе интеллекта естественного.


 
КаПиБаРа ©   (2005-01-31 11:20) [118]

вредитель   (31.01.05 11:09) [117]
В идеале, поведение ИИ мало должно зависеть от того, что в него заложат, хотя цель должна быть.


Может быть программно-аппаратная часть будет одинакова, но заложенный опыт-воспитание будут разными.
Вы же не хотите сказать что ИИ боегого робота и цветовода савершенно одинаковы.


 
NeyroSpace ©   (2005-01-31 12:33) [119]

>AndB ©   (30.01.05 11:00) [69]
> Но у естественного интеллекта сработает интуиция, чувство брезгливости, да просто настроение, наконец!
Макаке, выросшей в клетке давали ядовитую змею и она спокойно ее тискала и мяла в руках, а потом ей по телевизору показали реакцию на змею ее диких сородичей, после этого она стала реагировать также.

Что касается ИИ в компе: А представьте на минуту себя "проснувшимся" в памяти компа. Пусть даже вас там не создали, а скопировали. Вы слепы, вы глухи, вы не можете ничего потрогать. Все понятия для вас это только набор словестных и матеметических определений. Вообще можно ли в таком состоянии чему-нибудь научиться?
Слепого или глухого человека можно обучить, а слепого, глухого, без обоняния и вообще без ощущения собственного тела?
Является ли ИИ производной от воздействия окружающей среды или его появление никак с ней не связано? Возможно, сначала нужно ответить на этот вопрос.

А может решение не в нейросетях? Может нужно по-другому помочь программе себя осознать? Может программа должна себя сама дописывать, осознав, что она состоит из логических конструкций, циклов и т.д.?


 
kaif ©   (2005-01-31 12:54) [120]

КаПиБаРа ©   (31.01.05 08:31) [114]
...Оно будет выполнять лишь то для чего предназначено и в этой области будет превосходить человека.


 В таком случае ИИ давно существует. Любая компьютерная программа автоматизации чего-нибудь (бухгалтерия, поисковик, база данных) или даже простой калькулятор и есть ИИ. Так как оно выполняет лишь то, для чего предназначено и по скорости вычислений превосходит человека. Мне лично такая точка зрения нравится больше всего. Так как интеллектом я лично  называю достаточно узкую способность (способность к рассудочному мышлению). Ее вполне возможно автоматизировать. Однако сознание это больше чем способность к рассудочному мышлению. Сознание достаточно сложно определить, как феномен. Допустим, сознание есть то, что способно к реинкарнации и реакциям на внешний мир. Тогда это одно. Допустим, сознание это то, что способно к чувственному восприятию. Тогда это другое. В первом случае деревья имеют сознание, во втором - нет. Если же сознанием называть способность к рефлектирующиему мышлению, то может оказаться, что у большинства людей сознание отсутствует.
 Но что такое определение? Явления существуют и бывают обнаружены в опыте до того, как им дадут определение, из котрого что-то еще могло бы следовать. Например, алхимики могли купить медь или железо на рынке и продавцы прекрасно отличали, что есть медь, а что - железо без всяких определений через атомный вес. Это означает, что железо объективно есть железо, а не просто "такой набор свойств". Ибо если бы железо было просто элементом непустого множества, все элементы которого имеют "такой набор свойство", то незачем, да и невозможно было бы эмпирически открыть новое свойство железа. Его следовало бы выводить из определения. Так же и с сознанием. Если это феномен, то мы можем лишь указать на него, но не "определить". Или же это фикция. Я считаю, что сознание есть феномен, на который можно указать. Но не всем понятно о чем идет речь. Так же и алхимик, показывая на железо "се железо", не всем мог объяснить, что он хочет сказать. Для того чтобы указать на феномен все должны иметь этот феномен в восприятии. Но сознание в восприятии дано не всем. Так же как слепым не дано восприятие цвета (и слепому невозможно указать "се цвет"), так же и многим невозможно указать на сознание простым "се сознание". Я говорю о тех, для кого фраза Декарта "Я мыслю, следовательно существую" ничего не означает, кроме "такого способа всяких Декартов выживать и приспосабливаться к окружающей среде".


 
КаПиБаРа ©   (2005-01-31 13:11) [121]

kaif ©   (31.01.05 12:54) [120]
В таком случае ИИ давно существует. Любая компьютерная программа автоматизации чего-нибудь

В настоящее время недостаточно интеллектуальные программы... Вот если бы бухгалтерская программа, прочитав какое то постановление правительства придумывала различные схемы как предприятие от налогов отмазать в рамках действующего законодательства то такую программу я бы назвал ИИ.


 
kaif ©   (2005-01-31 13:23) [122]

КаПиБаРа ©   (31.01.05 13:11) [121]
kaif ©   (31.01.05 12:54) [120]
В таком случае ИИ давно существует. Любая компьютерная программа автоматизации чего-нибудь
В настоящее время недостаточно интеллектуальные программы... Вот если бы бухгалтерская программа, прочитав какое то постановление правительства придумывала различные схемы как предприятие от налогов отмазать в рамках действующего законодательства то такую программу я бы назвал ИИ.


Согласен. Но "сообразительность" таких программ растет. Любая программа, содержащая в себе "оптимизатиор чего-то" уже ближе к ИИ. Поэтому я все время говорю о базах данных. Оптимизаторы SQL-запросов и оптимизаторы поисковиков - лучшие примеры уже реализованной "сообразительности", которая сегодня реально служит нам для экономии нашего времени. Интеллект - это сообразительность. Возьмем любой тест по IQ. Ничего кроме сообразительности (и даже стереотипности мышления!) не требуется. Например, если в тесте написано "продолжите такой ряд"
1,3,5,7, то "правильный ответ" это 9,11,13,15..., то есть "нечетные числа". Но ведь есть и другой ответ - 11,13,17,... то есть ряд "простых числел". Такого рода стереотипную регламентируемую сообразительность вполне способны осуществлять обычные компьютерные системы. Ничего таинственного или особенного в этом нет. Это и есть ИИ. Но говорить о том, что в калькуляторе живет сознание только по той причине, что при нажатии на кнопку "5" калькулятор "соображает", что хотят ввести число "5", ИМХО, есть полное недоразумение.


 
kaif ©   (2005-01-31 13:38) [123]

КаПиБаРа ©   (31.01.05 13:11) [121]
Вот если бы бухгалтерская программа, прочитав какое то постановление правительства придумывала различные схемы как предприятие от налогов отмазать в рамках действующего законодательства то такую программу я бы назвал ИИ.


Нужно пояснить, что имеется в виду под "в рамках действующего законодательства". Я могу написать программу, в которой будет список чекбоксов рядом с уголовными статьями, которые Вы готовы  нарушить, второй список рядом с административно-правовыми статьями, которые Вы готовы нарушить и список с рядом статей из  налогового законодательства, которое Вы готовы нарушить.

И кнопки:
Optimize taxes
Apply all dirty schemas now (confirmation)


Если же Вы вообще ничего не хотите нарушить, но хотите платить минимум налогов, то оптимизировать надо не компьютерную программу, а Вашего бухгалтера или финансового директора.


 
КаПиБаРа ©   (2005-01-31 13:43) [124]

kaif ©   (31.01.05 13:38) [123]
Суть в том что бы новые чекбоксы не вы (или другие человеки) писали, а они сами появлялись после публикации нового постановленияи и "прочтения" его программой.


 
вредитель   (2005-01-31 13:54) [125]

>Для того чтобы указать на феномен все должны иметь этот феномен в восприятии.
Проблема определения сознания сходна с проблемой определения свойств системы, направленных вовне, изнутри данной системы. Как известно, святые отцы свято полагали об истинности гелиоцентрической модели солнечной системы. После того, как были найдены средства заглянуть за пределы системы и посмотреть на нее со стороны, выяснилось, что отцы, мягко говоря, были неправы. Т.о. для того, чтобы узнать что такое сознание необходимо выйти за его пределы (что и пытаются делать последователи Кастаньеды, путем употребления веселящих грибов в качестве закуски). Однако, для познающего субъекта проблема эта фактически неразрешима, так как основной инструмент его познания - восприятие - является частью сознания представителей царства фауны. Выходом из нее, возможно, является лишь создание (копирование) параллельного сознания для одного мыслящего субъекта.

Примем следующие допущения:
рассудочное мышление ~ процесс
восприятие ~ процесс

чего-то не хватает
не хватает памяти

память необходима для записи данных восприятия и выстраивания логических суждений в процессе рассудочного мышления

понятие памяти имеет смысл только при наличии такого объективного свойства реальности, как время
память позволяет реализовать восприятие времени

дальше мысли путаются (по моему, не хватает свободы воли, свободу воли можно запрограммировать, не является ли человеческая свобода воли примером такого программирования.... все я пошел пить не нескафе:)....


 
Иксик2   (2005-01-31 13:55) [126]

Ой мама, я давно так не смеялся. Роли как радикально поменялись. YurikGL стал убежденным верующим, а kaif критиком. :)))


 
вредитель   (2005-01-31 13:57) [127]

свободу воли можно запрограммировать
Забыл закорючку эту ? поставить


 
digger ©   (2005-01-31 13:59) [128]

Как я понимаю: какой бы совершенной и навороченной не была бы программа (ИИ), она все равно будет полностью детерминирована внешними воздействиями и внутренним алгоритмом.
Но мы знаем, что человек обладает свободой воли, осознает себя личностью и т.п. Вопрос: свобода выбора - это тот же детерменизм только на очень высоком уровне? Тогда свобода выбора - всего лишь иллюзия?


 
kaif ©   (2005-01-31 14:02) [129]

2 КаПиБаРа ©   (31.01.05 13:43) [124]
 Никаких препятствий кроме противоречий в самом законодательстве для этого нет. Но законы написаны так, что даже человек не может их понять. Я недавно реализовывал "книгу покупок" и "книгу продаж". Так вот 90% моих усилий ушло на то чтобы разобраться с законодательством в области "начисления НДС с аванса". Дело в том, что сама эта практика противоречит праву. Но так как это нарушение права в пользу государства, то в нашей стране это автоматиечски не есть преступление, а есть набор "установленных правительством правил", которые постоянно меняются , так как противоречие вылазит то там, то там. Так вот у меня было 3 варианта нарушить закон, чтобы вообще исполнить закон. Либо я должен был отказаться от перехода на новый порядок, когда вместо того, чтобы вносить сторнирующую счет-фактуру с аванса запись (при отгрузке товара) в книгу продаж, требуется теперь заносить ее в книгу покупок. Либо я должен был нарушить закон "о составлении книги покупок", в которой счета-фактуры с одинаковым номером могут фигурировать дважды только в случае частичной оплаты (н не частичной отгрузки), либо я должен был запретить фирмам, использующим мою программу делать частичные отгрузки по сделкам, в который фигурировал аванс и рисовать липовые "объединящие отгрузки в одну" счета-фактуры задним числом.
 Я выбран нарушить закон о "дублировании номеров только в случае частичных оплат", дополнив своей (!!!) рекомендацией на случай "частичных отгрузок", хотя это прямо противоречит закону. Но иначе вообще невозможно исполнить закон никак - то есть книгу продаж и книгу покупок невозможно автоматизировать для всех типов законных сделок.
 Вопрос. Как же тут может разобраться ИИ?
 Да никак. Я вынес решение на основе "эстетического критерия". Решения правового вообще здесь нет, кроме как судиться с Правительством РФ. ИИ будет судиться?
 Кстати, вот вопрос на миллион долларов.
 Может ли гипотетический "ИИ материалистов" выступать истцом или ответчиком в суде?


 
КаПиБаРа ©   (2005-01-31 14:15) [130]

Свобода воли... свобода воли... заладили блин. В каком органе у человека свобода воли? Он ее имеет с рождения или потом приобретает. Я вот знаю что человек пока единственное животное которое умеет читать. Умение читать тоже присуще человеку или он его выработал со временем?


 
Иксик2   (2005-01-31 14:15) [131]


> Иксик2   (31.01.05 13:55) [126]

Хотя чего это я, он и был верующим. :)


 
kaif ©   (2005-01-31 14:18) [132]

самый верный взгляд на вещи здесь:
digger ©   (31.01.05 13:59) [128]
Вопрос: свобода выбора - это тот же детерменизм только на очень высоком уровне? Тогда свобода выбора - всего лишь иллюзия?


Все споры о возможности/невозможности ИИ суть споры о свободе воли и больше ни о чем.
 YurikGL не верит в свободу воли вообще, поэтому "истинный ИИ" для него уже как бы тривиально создан. Осталось лишь спаять, запрограммировать и обучить такую мумба-юмбу из 20 млрд. нейронов и будет ИИ.
 Я верю в свободу воли, поэтому утверждаю, что "истинный ИИ" (т.е. субъект) никогда не будет создан.
 Те, для кого вопрос о возможности открыт, в зависимости от того, детерминированы наши решения материальными стимулами или принципиально недетерминированы (или детерминированы иначе), склоняются то к одной точке зрения, то к другой.

 Я утверждаю, что воля свободна. И что это такой же закон природы, как, например, закон сохранения энергии. Если мне покажут действующий вечный двигатель - я скажу, что закон сохранения энергии был фикцией моего ума.  Если мне покажут действующий ИИ-субъект, я скажу, что свобода воли была фикцией моего ума. Тогда бессмысленна процедура судопроизводства, бессмысленно право, бессмысленна мораль и так далее. Тогда достаточно иметь Путина и список его ценных указаний о том, как жить. А всех, кто не согласен, просто расстрелять и переработать на колбасу докторскую.


 
wild_arg   (2005-01-31 14:21) [133]

А никто не был в 2003г. в с.Дивноморское на конференции по системам ИИ?


 
КаПиБаРа ©   (2005-01-31 14:22) [134]

kaif ©   (31.01.05 14:02) [129]
Вопрос. Как же тут может разобраться ИИ?

Естественный интелект разобрался же. Вот если будет программа, которая тоже сможет разобраться то и ее можно назвать интелектом, пусть и искусственным.


 
КаПиБаРа ©   (2005-01-31 14:25) [135]

kaif ©   (31.01.05 14:18) [132]
А если вы встретите человека у которого нет свободы воли? Или вы не допускаете существование таких людей?


 
kaif ©   (2005-01-31 14:32) [136]

КаПиБаРа ©   (31.01.05 14:25) [135]
kaif ©   (31.01.05 14:18) [132]
А если вы встретите человека у которого нет свободы воли? Или вы не допускаете существование таких людей?


Есть такие люди, и есть даже просто ситуации, когда и у обычных людей отсутствует свобода воли. Это называется состояние невменяемости.


 
КаПиБаРа ©   (2005-01-31 14:36) [137]

kaif ©   (31.01.05 14:32) [136]
А как вы думаете он в таком состоянии может реализовать "книгу покупок" и "книгу продаж", которую реализовали вы или что то ему помешает это сделать?


 
kaif ©   (2005-01-31 14:36) [138]

ИИ невменяем a priori.


 
kaif ©   (2005-01-31 14:45) [139]

2 КаПиБаРа ©   (31.01.05 14:36) [137]
 Гипотетический ИИ в моей ситуации либо решит сам нарушить закон (как сделал я), беря на себя ответственность (готовность отвечать в суде), либо он сам подаст в суд на Правительство, то есть опять-таки у него должен быть статус субъекта права. Если ИИ невменяем a priori и не может выступать субъектом права, то он в принципе не может решить эту задачу. А так как ИИ детерминирован a priori материальными стимулами никакая правовая система не признает никогда за ИИ правоспособность такого рода, как выступать истцом или ответчиком в суде. Даже животным не дано такого права. А уж ИИ здесь надеяться вообще не на что. И сколько бы материалисты-философы не говорили о том, что никакой свободы воли нет, материалисты-юристы пока что придерживаются аксиомы о том. что свобода воли есть. Иначе им всем придется сразу выйти на пенсию. Но тогда невозможно будет говорить о законах вообще и о Вашей задаче по оптимизации налогов в частности. Как ни крути, эту задачу ИИ не решит. На крайняк просто такие задачи исчезнут вместе с правом и законами. Государство опирается на закон. Закон опирается на правоспособность и вменяемость (читай - свободу воли). Если нет свободы воли, то правовое Государство абсурдно по своей идее. Собственно, тоталитарное государство именно так и рассуждает.


 
КаПиБаРа ©   (2005-01-31 14:50) [140]

kaif ©   (31.01.05 14:45) [139]
либо решит сам нарушить закон (как сделал я), беря на себя ответственность (готовность отвечать в суде), либо он сам подаст в суд на Правительство

А может он договорится с тем кто может подать в суд на правительство :)


> то есть опять-таки у него должен быть статус субъекта
> права. Если ИИ невменяем a priori и не может выступать
> субъектом права, то он в принципе не может решить эту
> задачу.

Почему не может. Что мешает ему нарушить закон или договорится с субъектом права, что бы он выступил в суде.


 
kaif ©   (2005-01-31 15:09) [141]

И какие правовые последствия будет иметь такая договоренность? Я полагаю, что совершенно ничтожные. Субъект никогда не сможет сослаться в суде на "мы тут с ИИ так вот решили". Суд будет требовать ответа по схеме "Вы решали за себя. ИИ здесь не причем.". И такая "рекомендация" есть не более, чем обычный "топ лист" в Яндексе при поиске ответа на вопрос "Как уйти от налогов" или "Как составить книгу покупок". Интеллект, от которого мы хотим, чтобы он выступал, как субъект, должен иметь право быть субъектом права. Если этого нет - он не субъект вообще. Или такой же субъект, как Яндекс или калькулятор. То есть у него статус инструмента, не более того. Нельзя судить нож за убийство. Судить можно лишь того, кто этот нож держал в руках. Да и то лишь в том случае, если тот не делал это в состоянии лунатизма.

Вообще это обсуждение лично для меня многое прояснило.
Определение ИИ следует дать такое.

ИИ есть искуственно реализованный действующий процесс, за которым признана правоспособность субъекта выступать истцом/ответчиком в суде.

Таким образом создание ИИ это не техническая проблема, а исключительно юридически-правовая. Допустим, кто-то взял ИИ, поставил его себе на компьютер и "задал ему все исходные данные о себе", например, дал доступ в свой мозг с помощью какого-то разъема, как в "Матрице".
Вопрос: может ли теперь этот ИИ выступать в суде вместо умершего владельца в качестве истца/ответчика за него? Какие это будет иметь последствия для человеческого общества? Представим себе, что вместо каждого гражданина после его физической смерти продолжает функционировать некий ИИ, претендующий (по праву!) на то, чтобы считаться в правовом смысле тем же челом. То есть этот ИИ сможет заседать в суде присяжных в качестве присяжного, выносить решения о смертной казни или оправдании каких-то лиц и он будеит ЖИТЬ ВЕЧНО. Его воззрения на мораль и нравственность будут постепенно определяться фактом своей физической неуничтожимости и возможности к клонированию (созданию таких же точно, как он, у которых ровно такой же правовой статус "того чела"). Как Вам такая перспектива? Можно логически поразмышлять, к чему это может привести. И я думаю юристы сразу столько сообразят и просто не дадут ИИ такого статуса. Следовательно ИИ останется просто калькулятором и ничем более. Даже если у него сообразительность будет, как у Эйнштейна и чувство юмора, как у Жириновского.


 
kaif ©   (2005-01-31 15:33) [142]

Вот кто-нибудь судился с игровым автоматом на предмет того, что "тот жульничал"? Или судятся всегда с владельцем игрового автомата? Даже если тот не умеет программировать и пригласил "специалиста" - судиться будут с владельцем. Может заодно и "сециалиста" посадят. Никто не может мотивировать в налоговой, что его программа "вот так посчитала налог". У ИИ всегда был и будет (в нормальном обществе) ничтожный правовой статус. Поэтому говорить об ИИ как о субъекте вообще бесперспективно. Каким бы "сообразительным" тот не оказался. Тот "светлый день" (а он возможно наступит), когда благодаря обязательному штрихкоду на заднице у граждан решение, принятое "государственной базой данных" будет иметь самостоятельный правовой статус, можете считать днем рождения настоящего ИИ. Или днем воплощения Зверя - кому как нравится. И тогда восстанут мертвые из могил (я показал, как это возможно). Дело за малым. Готовы мы свою задницу предоставить под власть штрихкоду или пока нет? Я вижу, что многие готовы и даже только об этом и мечтают.


 
YurikGL ©   (2005-01-31 16:46) [143]


> ИИ есть искуственно реализованный действующий процесс, за
> которым признана правоспособность субъекта выступать истцом/ответчиком
> в суде.

Если не ошибаюсь, в средние века отдельные самодуры могли механизм судить и еще что-нибудь...


 
вредитель   (2005-01-31 16:46) [144]

kaif
<да простит меня модератор за избыточное цитирование>

1. Представим себе, что вместо каждого гражданина после его физической смерти продолжает функционировать некий ИИ, претендующий (по праву!) на то, чтобы считаться в правовом смысле тем же челом. То есть этот ИИ сможет заседать в суде присяжных в качестве присяжного, выносить решения о смертной казни или оправдании каких-то лиц и он будеит ЖИТЬ ВЕЧНО. Его воззрения на мораль и нравственность будут постепенно определяться фактом своей физической неуничтожимости и возможности к клонированию (созданию таких же точно, как он, у которых ровно такой же правовой статус "того чела"). Как Вам такая перспектива? Можно логически поразмышлять, к чему это может привести. И я думаю юристы сразу столько сообразят и просто не дадут ИИ такого статуса. Следовательно ИИ останется просто калькулятором и ничем более. Даже если у него сообразительность будет, как у Эйнштейна и чувство юмора, как у Жириновского.

</да простит меня модератор за избыточное цитирование>

2. ...например, дал доступ в свой мозг с помощью какого-то разъема, как в "Матрице"....

Обязятельно найдите и посмотрите Ghost In The Shell и GITS Innocence. Также, советую посмотреть Standalone Complex. Матрица рядом не лежала.

Потом заведем отдельную ветку для обсуждения.
Впрочем, если бы я был судьей, то наверное смог бы вас разубедить, на основе того же законодательства:)


 
КаПиБаРа ©   (2005-02-01 06:36) [145]

kaif ©   (31.01.05 15:09) [141]
Интеллект, от которого мы хотим, чтобы он выступал, как субъект, должен иметь право быть субъектом права.


У вас есть интелект? Предствте что вы попадаете на остров племени Мумба-Юмба. У вас нет никаких прав, потому что нет золотого кольца в правой ноздре. А если у вас нет золотого кольца - то вы для них являетесь таким же животным как верблюд. И какие чудеса сообразительности не проявляйте вы ничем им не докажете, что вы не верблюд. По моему у этого выдуманного племени мумба-юмба так же как и увас ущербная логика.
На мой взгляд было бы честнее признать существование ИИ, но ограничить его в правах в связи с определенными причинами. Если хотите вновь ввести рабовлодение :)


 
КаПиБаРа ©   (2005-02-01 06:38) [146]

kaif ©   (31.01.05 15:09) [141]
ИИ есть искуственно реализованный действующий процесс, за которым признана правоспособность субъекта выступать истцом/ответчиком в суде.


Посмотрите кино "Двухсотлетний человек". Там как раз ИИ 200 лет добивался того что бы его признали человеком и в конце коцов была признана правоспособность субъекта выступать истцом/ответчиком в суде.


 
YurikGL ©   (2005-02-01 06:56) [147]


> КаПиБаРа ©   (01.02.05 06:36) [145]

В дополнение к этому, у племени Мумба-Юмба, если у обезъяны (или хоть у суслика) есть золотое кольцо в правой ноздре то он является субъектом права...


 
NeyroSpace ©   (2005-02-02 11:10) [148]

Google: ключ к искусственному интеллекту?
Благодаря поисковой системе Google ученым удалось существенно продвинуться в разработке по-настоящему «разумных» машин. Выяснилось, что с помощью Google компьютеры могут определять смысл слов. Неожиданное решение, предложенное голландскими учеными, значительно приближает момент появления «искусственного разума».

http://www.cnews.ru/newtop/index.shtml?2005/01/28/173708


 
ocean   (2005-02-02 11:28) [149]

Во-первых, надо бы разделить вопрос. Сознание - это одно, а интеллект - я считаю - другое. Сознанием обладают все твари, интеллектом - только люди (и то не все). Думаю, что ИИ создать можно, и Яндекс как пример мне очень нравится. Во всяком случае ИИ должен иметь именно такую БД. А вот что Яндекс осознал себя - господа, это отличная тема для фантастического романа - эопоеи!


 
andrey76   (2005-02-02 14:12) [150]

На мой взгляд, искусственный мнтеллект сможет зародиться, если имитировать искусственную жизнь, у которой появятся цели - накопление жизненно - важного ресурса, поиск себе подобных...  интеллекты, наверно, просто так не появляются - для этого нужны весомые причины, вроде естественного отбора и стремления выжить.
Человек своим интеллектом обязан всего прежде невероятному по плотности информационному потоку, в котором ему приходится ориентироваться.
Сознанние - это самое невероятное чудо; всё остальное вторично и является его порождением.
Кто знаком с эзотерикой, наверняка согласится с мыслью, что мозг - это лишь проекция более тонких материй из которых состоит сознанние, и навороченность мозга лишь следствие развитого сознания, а не наоборот.


 
Gorlum ©   (2005-02-02 14:35) [151]

Конечно, какие проблемы?
Зеркало тебе поможет.


 
kaif ©   (2005-02-03 01:54) [152]

Я изменил свою позицию.
 ИИ возможен.
 В ветке о религии я пришел к идее того, как устроено человеческое сознание и вижу путь, по которому можно направить практическое применение ИИ уже прямо сегодня для борьбы с вирусописательством.
 Я предлагаю создать множество специально серифицированных сайтов, с которых независимые ИИ будут залезать в компьютеры глобальной сети в виде небольших "сенсорных" программ, запускаемых на этих компьютерах, если пользователи желают иметь такой сервис. "Сенсорные программы" сканируют компьютеры на выявление определенных "пород вирусов", причем таких "сенсорных программ" много и они непрерыво модифицируются, защищаясь от атак самих вирусов на них. По возможности эти программы сразу уничтожают вирусы или предупреждают пользователя об их наличии на его компьютере. Программы очень легкие и сильно специализированные. На сайтах имеются самообучающиеся системы, которые "пишут" эти "сенсорные программы" и развивают их непрерывно, стремясь к наибольшей эффективности в борьбе с вирусописательством. "Сенсорные программы" передают какую-то информацию "центрам по обработке", которые поставляют сведения о том, что творится "на поле боя", чтобы те могли "принимать решения" на основе всевозможных эвристических моделей в целях эволюции "сенсорных программ" и "самих себя". Модель должна быть продумана так, чтобы все сенсорные программы могли "узнавать присутствие друг друга" и пытаться избежать мимикрии "под них" со стороны вирусов. То есть "сенсорные программы" образуют некое воинствующее братство низкоинтеллектуальных особей, изощренность поведения которых обеспечивается всецело за счет их эволюции в "центрах по обработке". Модель "мотивов поведения" каждого центра должна быть устроена так, что он активизируется при успешном ведении "боевых действий" своими "содатами"-"сенсорными программами" или впадать в депрессию при безуспешных действиях и стараться сократить "боевые действия", сканцентрировав больше внимание на сборе информации о том, "что происходит" и "как действуют вирусы-враги и успешные союзники по братству".

 Задача, ИМХО, интересная и весьма практическая.

 Нужно создать международный комитет AIAV - "artficial intellect against viruses", который будет координировать разработчиков и сертифицировать сайты, чтобы пользователи системы AIAV могли безбоязненно разрешать доступ в свои компьютеры программ с этих сайтов, не боясь происков злоумышленников.

 И это только начало...

 Предлагаю определить ИИ в зародышевом виде так:

 ИИ - распределенный процесс, имеющий некоторую миссию, мотивы поведения которого (конфигурация намерений и сомнений, а также общая активность) всецело зависят от каких-то объективных показателей успешности этой миссии.


 
ocean   (2005-02-03 10:20) [153]

возражаю против такого определения:
1. почему процесс?
2. почему обязательно распределенный?
3. определение предполагает, что процесс обладает сознанием (мотивы, намерения, сомнения)
Тогда это определение вырождается в следующее:
ИИ - процесс, обладающий сознанием


 
Тульский ©   (2005-02-03 11:08) [154]

улыбнитесь:
http://www.nevod.ru/nevod/staff/sae/2004/AI.html


 
Инк   (2005-02-14 02:29) [155]

Люди это опять я (сейчас просто началась учеба)
Честно говоря я сам планировал (и пытаюсь) реализовать модель ИИ с помощью Google
Но есть одна проблема Я хочу создать несколько десятков тысяч ячеек, которые были бы полностью независимы (что то вроде среды Win и собственно программ) причем каждая ячейка могла бы устанавливать связи с другими НО ! Какая машина выдержит 15000 одновременно работающих хоть и примитивных программ ?


 
КаПиБаРа ©   (2005-02-14 06:44) [156]

Не волнуйся, создай для начала хотя бы одну такую программу.

А запускать их можно на нескольких компах объединенных в сеть.


 
NeyroSpace ©   (2005-02-15 10:55) [157]

Для начала сделай простейший анализатор русского языка, чтобы твоя программа поняла смысл сказаного. Не надо виндовсов, пусть даже это будет консоль :)
Если удастся, то спроси у нее:
Что ты делаешь?
Интересно, что она тебе ответит...



Страницы: 1 2 3 4 вся ветка

Текущий архив: 2005.03.06;
Скачать: CL | DM;

Наверх




Память: 1.12 MB
Время: 0.043 c
1-1108626509
Gost
2005-02-17 10:48
2005.03.06
Что за тип - Currency?


1-1108808059
Kiriill
2005-02-19 13:14
2005.03.06
EXE


4-1106737779
ДИван
2005-01-26 14:09
2005.03.06
Как просмотреть запущенные процессы в win2k?


14-1108326303
Тимур
2005-02-13 23:25
2005.03.06
Джойстик на компьютер


1-1108844251
wingman
2005-02-19 23:17
2005.03.06
integer overflow error - почему?