Текущий архив: 2005.03.06;
Скачать: CL | DM;
Вниз
Реален ли ИИ ? Найти похожие ветки
← →
Anatoly Podgoretsky © (2005-01-29 16:05) [40]Надо бы сначала дать четкое определение что такое интеллект, тогда можно ответить можно ли создать искуственный.
← →
AndB © (2005-01-29 16:34) [41]одного не пойму - зачем он нужен? ИИ? что б еще и не думать самим?? Воооот! Человеку оттого и мысли приходят, что - инстинкты.. Для их реализации он и ставит себе задачи, и пути решения находит. Это же то, об чем рядом говорилось - и "намерения, желания" от kaif-а,, и "цель жизни" - все одной цепи колечки... Доводя до абсурда - что надо человеку? Не умереть с голоду, удовлетворить потребности.. Не кажется ли вам, что идеальный ИИ очень скоро вычислит всю никчемность своих "телодвижений"? Ведь его конечной целью окажется обеспечить себе бесперебойное питание.. чем он там питаться будет? :) Электричеством?? Ну так вот он сядет у ближайшей розетки и застынет там.. Предварительно уничтожив всяких паразитов, способных нарушить электроподачу..
{шучу ;)}
← →
YurikGL © (2005-01-29 17:02) [42]
> kaif © (29.01.05 15:41) [39]
> Любопытно всегда бывает понаблюдать за тем, как материалисты,
> которые секунду назад доказывали, что бог невозможен, уже
> доказывают, что ИИ возможен.
Я, как всегда, что-то пропустил? Где я это доказывал?
А модель нейрона, повторюсь, построена давно. Вроде работает. Правда до воспроизведения структуры в лоб еще далеко...
← →
GEN++ © (2005-01-29 17:03) [43]>Копир ©
>Задача сложная -- нужно выделить характерные (заранее заданные) >частоты
>в звуковоми потоке, обработать их в статистическом и в >амплитудном порядке.
>Ну, там, график этой статистики. В конце.
>Источник звука - пьезоэлектрический микрофон. Стандартная, типа >ESS,звуковая карта.
>Нужен алгоритм рядов Фурье, и обязательно алгоритм избавления >от шума.
>Дело совсем не простое, как кажется сперва:))
>Задача сформулирована аж Комитетом ЮНЕСКО в нынешнем 2005 году.
>Связана с, как всегда, опередившим фактом цунами.
>Мне известны десятки программистских "контор", которые >возьмутся за дело.
Не стоит волноваться. Задача эта уже решена и реализована
в аппаратуре. Только на входе не пьезо микрофон, а фазовые
решетки. Кем и как решена - не скажу.
← →
YurikGL © (2005-01-29 17:03) [44]
> Надо бы сначала дать четкое определение что такое интеллект,
> тогда можно ответить можно ли создать искуственный.
Создать можно... просто кое-кто будет говорить что это - не интеллект. Для того что-бы создать модель чего либо не всегда обязательно знать, как оно внутри устроено.
← →
Anatoly Podgoretsky © (2005-01-29 17:33) [45]Внутренности не нужны, нужно определение. Иначе про любую вещь будем говорить дважды - это оно и это не оно. Определения то нет.
← →
YurikGL © (2005-01-29 17:43) [46]
> Внутренности не нужны, нужно определение. Иначе про любую
> вещь будем говорить дважды - это оно и это не оно. Определения
> то нет.
Однако, если сделать копию (в рамках допустимых погрешностей) того, что мы не можем определить, и если копия будет работать аналогично (в рамках допустимых погрешностей) то можем мы сказать, что если первое было интеллектом, то второе тоже интеллект?
← →
tvar (2005-01-29 18:11) [47]Это чистой воды if then else по некоторым условиям
А как ты определишь, враг это или друг? Наугад? Или же будешь думать, раз этот человек пришел с вражеской стороны и направил на тебя оружие, значит он враг. Это не "if then else"? Ах, да. Это case of, как я мог так ошибиться.
← →
kaif © (2005-01-29 18:26) [48]YurikGL © (29.01.05 17:43) [46]
> Внутренности не нужны, нужно определение. Иначе про любую
> вещь будем говорить дважды - это оно и это не оно. Определения
> то нет.
Однако, если сделать копию (в рамках допустимых погрешностей) того, что мы не можем определить, и если копия будет работать аналогично (в рамках допустимых погрешностей) то можем мы сказать, что если первое было интеллектом, то второе тоже интеллект?
Человек - двуногое без перьев в ремках допустимых погрешностей.
← →
YurikGL © (2005-01-29 18:29) [49]
> А как ты определишь, враг это или друг? Наугад? Или же будешь
> думать, раз этот человек пришел с вражеской стороны и направил
> на тебя оружие, значит он враг. Это не "if then else"? Ах,
> да. Это case of, как я мог так ошибиться.
В той системе, насколько я понимаю, есть ряд критериев, у каждого критерия есть веса... В принципе, может быть можно свести к МАИ.
> Человек - двуногое без перьев в ремках допустимых погрешностей.
У каждого свое понимание интеллекта :-)
← →
kaif © (2005-01-29 18:30) [50]Висит груша - нельзя скушать.
В принципе, если не нужно кушать, то лампочка это та же самая груша, но в рамках допустимых погрешностей работает аналогичо(выглядит, как груша).
Так что ли?
:)
← →
kaif © (2005-01-29 18:33) [51]Согласно сабжу интеллект и сознание уже объединены под общим названием ИИ. Интересно, а верно ли их так объединять? Вот, ИМХО, у улиток сознание есть, а интеллекта - нуль. Так что давайте сначала отделим белое от твердого.
← →
марсианин © (2005-01-29 19:02) [52]
> Как вы думаете реально ли создать нечто что имело сознанине,интеллект
> ?
читай книгу Роджера Пенроуза "Новый Ум Короля"
← →
марсианин © (2005-01-29 19:19) [53]а компа есть интеллект?
> Согласно сабжу интеллект и сознание уже объединены под общим
> названием ИИ
есть класс задач, которые не решаются алгоритмически.. принципиально не могут решаться.. не исключено, что 100% моделирование сознания как раз и есть 1 из таких задач..
кроме того, есть вероятность, что мы еще не достаточно представляем именно физические принципы функционирования мозга..
ну.. да это может показться странным, ибо поведение отдельной молекулы, отдельного нейрона мы описать можем.. в то же время всю структуру в целом - нет. и, возможно, что здесь замешаны уже некоторые физические законы, те, которые уже не микро-..(квантовые) но еще не макро- и о которых мы пока имеем смутное понятие..
чтож.. может быть и так. в современной физике пробелов еще хватает
← →
вредитель (2005-01-29 19:20) [54]AndB
>одного не пойму - зачем он нужен? ИИ? что б еще и не думать самим??
ИИ необходим в качестве "усилителя" убогого человеческого интеллекта, ибо поток информации, которым обладает человечество может превысить допустимую пропускную способность интеллекта "глобального", и тогда начнется самое веселое. Причем, не в качестве усилителя основанного на принципе грубой силы, примером коего является современный компьютер.
kaif
>Интересно, а воспитывать и на горшок сажать этот ИИ надо будет или он без всего этого обойдется? А если плохо к горшку привыкать будет, правда, что тогда у этого ИИ будет садомазохистский комплекс...
Стремление наградить ИИ человеческими пороками, погрузить его в сансару... Вы мазохист?:)
>Согласно сабжу интеллект и сознание уже объединены под общим названием ИИ. Интересно, а верно ли их так объединять?
Вопрос действительно интересный. Если понимать интеллект под способностью решать задачи на основе программируемой (в течении жизни) логики, а не довольствоваться жестко прошитыми инстинктивными программами, то у улитки интеллект практически отсутствует. Как впрочем и сознание (проблески которого, надеюсь, улитка имеет, хотя сколько не спрашивал, ни одна улитка не рассказала), под которым понимается способ восприятия бытия, сильно зависящий от качества перцептронов (улитка в этом плане тоже далеко не продвинулась).
← →
YurikGL © (2005-01-29 19:27) [55]
> В принципе, если не нужно кушать, то лампочка это та же
> самая груша, но в рамках допустимых погрешностей работает
> аналогичо(выглядит, как груша).
> Так что ли?
Свое понимание ИИ я привел выше.
← →
Mystic © (2005-01-29 21:04) [56]http://www.humanities.edu.ru/db/msg/26443
← →
programania © (2005-01-30 02:17) [57]>Anatoly Podgoretsky © (29.01.05 16:05) [40]
>Надо бы сначала дать четкое определение что такое интеллект,
Четким можно считать определение, по которому можно написать программу.
Для любого другого можно ставить вопросы "что значит..." пока
не будет ясно как написать программу или признано что определение не четко.
Значит определение ИИ и есть его создание.
Определять не создавая можно только результаты,
достаточные для признания существования ИИ.
>AndB © (29.01.05 16:34) [41]
>одного не пойму - зачем он нужен? ИИ?
Естественный И. не развивается последние 100k лет.
Главная цель создания ИИ его саморазвитие.
Если это будет, то ИИ может достигнуть любого уровня по экспоненте.
Все что у нас есть создано естественным И.
Если будет ИИ любого уровня, у нас будет все.
Поэтому предлагаю считать признаком создания ИИ
возможность его саморазвития,
и наплевать что все сразу поймут что общаются с нечеловеком,
это и есть его признак: он умнее.
← →
Инк (2005-01-30 04:33) [58]>Ученый Грей Уолтер в 60-х годах придумал
и воплотил в жизнь кибернетическую черепашку,
которая пыталась достигнуть цели, подползала к зарядному
устройству, когда аккумулятор сдавал, вообщем, пыталась
выжить в суровых условиях.
Эта черепаха была построена на паре триггеров Причем подползала к ЗУ она исключительно благодаря прямому действию датчиков. В ней не было никакой централизованной системы которая играла бы роль ИИ - это была чистая автоматика
>А модель нейрона, повторюсь, построена давно. Вроде работает. Правда до воспроизведения структуры в лоб еще далеко.
Эта модель имеет только несколько логических входов/выходов и элементарна сама по себе. Нейрон подкорки обычного человека может иметь до 15,000 входов/выходов и может отвечать на импульсы по некоторым правилам. Как видим модель полностью не соответствует действительности. Программно он больше похож на изощренный класс или целую бибилиотеку
>Согласно сабжу интеллект и сознание уже объединены под общим названием ИИ. Интересно, а верно ли их так объединять?
А вот здесь ,как говорят, начинается интересное... В некотором смысле да, а скорее это одно целое. Есть что нибудь живое с сознанием но без интеллекта или с интеллектом но без сознания ? Нет . Сознание как бы надсистема над всем остальным. Когда мы слышим звук - мы его не раскладываем по частоте и амплитудам (хотя может некоторые системы и раскладывают но от сознания это скрыто). Сознание не следствие интеллекта - а нечто другое. И вопрос можно даже поставить Не как сделать ? а Как представить сознание - а если это производное сложности системы. Что если взять не 5-10 нейронов с тысячами связей а десятки миллионов. После ее запуска мы уже не сможем сказать что в ней происзодит. К чему приведут элементарные действия миллионов достаточно сложных элементов.
На основе НС можно создать очень гибкую логику, но ИИ она будет только имитировать т.к НС не осознает свое существование
Выход где-то в области НС . Ответ в структуре элементарных ячеек и "количестве переходящем в качество" - не все законы известны
← →
kaif © (2005-01-30 05:12) [59]А чем вам Яндекс не ИИ?
Задайте ему какой-нибудь вопрос.
← →
Инк (2005-01-30 05:31) [60]От просто БД.
Если б был ИИ тогда бне выдавал при поиск s/n каждой второй ссылкой порнуху :)
← →
Fay © (2005-01-30 05:55) [61]2 Инк (30.01.05 5:31) [60]
> Если б был ИИ тогда бне выдавал при поиск s/n каждой
> второй ссылкой порнуху :)
Когда я спрашиваю жену по телефону "Есть дома пожрать?", то она отвечает "А почему ты не спрашиваешь, как я себя чувствую?!". Но поверь, она куда круче Яндекса. 8)
← →
kaif © (2005-01-30 06:14) [62]Если ИИ - тот, кто отвечает на вопросы, то Яндекс и есть ИИ. А если этот ИИ заполнен порнухой, то так же устроен и обыкновенный И. Это нормально. Особенно если учесть, что Яндекс стадию приучения к горшку не проходил. Странно, что в нем вообще что-то кроме порнухи вообще можно найти.
А кто сказал, что ИИ не база данных? ИМХО, база данных и есть ИИ. Если для кого-то таинственные "процессы в мозге" и есть И, то почему он думает, что эти процессы не сводятся к банальной базе данных? Просто она должна быть огромной и выдавать малопредсказуемый, но зато часто полезный результат. Чем выше непредсказуемость, тем выше информативность. А давайте проверим Яндекс на тест по IQ. Если Яндекс даст выше 100% IQ, то его интеллект лучше нашего.
Предлагаю тест по IQ для Яндекса. Берем любой известный тест по IQ и набираем оттудова кусок. Спорим, ответы в Яндексе по этому тесту уже лежат? Так как он выдаст ответы быстрее любого чувака, то у Яндекса IQ выше, чем у любого чувака, так как IQ - это тест не только на поиск решения, но и на поиск его за определенное время. А если его IQ выше нашего, то это и есть тот самый ИИ, который мы ищем - тот, который заменит мозг наших детей и внуков, ибо в этом, как я подозреваю, главная цель всего человечества - остаться без мозга, но зато с Яндексом. Уверяю вас, через 30 лет высоко образованным человеком будет считаться тот пацак, что знает буквы алфавита и умеет их отыскать на клавиатуре, вместо того чтобы пользоваться, как все "нормальные пацаки", голосовым набором. Ку.
← →
Инк (2005-01-30 06:26) [63]Но опять - таки это только имитация. Программа и не больше. Думаю Яндексу глубоко все равно что искать что показывать. БД только часть ИИ. Я думаю что без модулей анализа звука и изображения(вроде зрения) ИИ просто не сможет связать идентичные понятия и наоборот различить внешне похожие.
Пусть у системы нет зрения Как она поймет что понятия молоток и кувалда практически тождественны ? Оперировать абстрактным(система не может его сравнить и анализировать - не с чем) размером ? Это как складывать две кучки камней полностью отрицая понятие чисел и счета. ИИ должен иметь возможность анализировать данные минимум из 2 источников. А сравнивать ИИ с базой данных пусть и очень сложной.. Тоже самое что утверждать что суть сознания человека - его память. Она очень важна без нее мозг бесмыслен НО управляет всем этим что-то другое.
← →
kaif © (2005-01-30 06:54) [64]2 Инк (30.01.05 06:26) [63]
Согласно воззрениям материалистов нет никакого сознания. И мышления тоже нет. И души нет. Вообще ничего нет. Есть только "мозговой процесс". Так что имитатор И и есть ИИ.
Пусть у системы нет зрения Как она поймет что понятия молоток и кувалда практически тождественны ?
А кто сказал, что человек это понимает? Вот я до сих пор считал, что человек и кувалда -разные вещи. Теперь знаю, что между ними есть связь (благодаря Вам). В нейронной модели, имитирующей мой мозг, должен был вырасти новый дендрит, соединяющий аксон одной ганглиозно клетки с другой или измениться коэффициент звязи между какими-то клетками. В Яндексе этому соответствует прописывание метатэгов или еще какой-нибудь хрени, так что следующий раз набирающий "кувалда" увидит как статьи по кувалдам, так и по молоткам. И даже по революционному символу большевиков - серпу и молоту. Так как словарь Яндекса и там найдет что-то общее уже сам, на основе банальных статистик и без всяких нейронов.
Вот Вы думаете, что Вы сейчас дома? Или на работе? фигушки. Все это лишние сущности. Не существует никакой работы и никакого дома. Это все розовые слоники и летающие большие зеленые камнеедки. Не существует ни зарплаты, ни дипломатических отношений, ни профессионалов, ни любителей, ни поэтов, ни придурков. Существуют только химические процессы окисления и электрические прцессы в мозгах. Под действием импульсов тела двигаются в пространстве туда-сюда, а Вам кажется, что у них есть работа, дом, семья, заботы. Все это чушь - лишние сущности типа Бога или чертей. Их глазом не видно, поэтому их нет. Д что там глазом? Вот кто-нибудь дипломатические отношения может прибором замерить? Или при помощи амперметра отличить офис от дома? Не может. Это все суть помещения для мсатериальных тел, которые только и существуют. Скоро всеми этими телами начнет управлять тот, у которого есть настоящий интеллект, который ИИ, то есть Яндекс. Вот тогда и наступит всеобщее счастье, которое тоже лишняя сущность.
← →
kaif © (2005-01-30 07:05) [65]И вообще. Распознавание молотка состоит не в том, чтобы кувалду уметь отличать. Вот Вы думаете, что человек может отличить кувалду? Очень сомневаюсь. Если кому-то надо, чтобы была кувалда, то он берет первую попавшуюся дубину или иной предмет и лупит им, пока чувство ненависти и гнева не сменится на жалость и сострадание. Или пока не забьется гвоздь при помощи плоскогубец в стул, который со знаком качества или лейблом ростеста. Вот Вы никогда не видели, чтобы фикусом гвоздь забивали? Или чтобы кувалдой телевизор чинили? А я видел.
Сие называется у человеков фантазия. В Яндексе это называется плохая индексация базы данных. Так что если "недостаток когнитивной функции" у людей компенсируется так называемой "фантазией", то проблем у ИИ с этим делом тем более быть не может.
← →
Инк (2005-01-30 07:14) [66]Ну что-то все-таки есть :)
Например отношение к чему-то на основе статистики не сделаешь
И все-таки я подняд этот топик не для того чтобы узнать есть ли Матрица (кстатит в ней в принципе сознание и интеллект на самом деле должно сохраняться и функционировать - ну и пусть все нарисовано - это только для внешнего наблюдателя !), а для того чтобы выести основы того что необходимо для функционорования ИИ
PS В Яндексе все таки кто то должен однажны связать молоток и кувалду. А сам по себе Яндекс такого вывода не сделает
← →
YurikGL © (2005-01-30 08:30) [67]>Четким можно считать определение, по которому можно написать программу.
Нифига подобного.
>kaif ©
Если при общении с яндексом ты не можешь понять дает тебе ответы машина или там человек сидит и анализирует, для тебе это будет ИИ.
← →
вредитель (2005-01-30 10:11) [68]>Если при общении с яндексом ты не можешь понять дает тебе ответы машина или там человек сидит и анализирует, для тебе это будет ИИ.
Или ты сам ИИ, а Яндекс - И.:)
← →
AndB © (2005-01-30 11:00) [69]to [66]>> а для того чтобы выести основы того что необходимо для функционорования ИИ
вот я и намекнул своим имхо, что необходимы животные инстинкты для функционирования ИИ. Ну не будет у него никаких побудительных мотивов для выполнения к-либо мыслительной деятельности. Кирпич не имеет инстинкта самосохранения и ему в голову не придет отползти с проезжей части.. Как вы представляете привить эти инстинкты? Это будет просто программа обеспечения безопасности. Можно сказать, что и человек действует по такой же программе. Точь в точь. И как в любой программе невозможно заложить базу всех мыслимых опасностей, рано или поздно этот ИИ "погибнет" от укуса маленького паучка.. которого забыли описать создатели.. Но у естественного интеллекта сработает интуиция, чувство брезгливости, да просто настроение, наконец! Вот не расположен я сегодня, что б по мне паучки бегали :)
А не обладая инстинктами ИИ будет просто "отвечателем на вопросы".
[44] >> Для того что-бы создать модель чего либо не всегда обязательно знать, как оно внутри устроено.
Действительно, давным-давно, не помню в какой фантастике вычитал мысль (перефразируя): если долго наблюдать за поведением некоего "черного ящика" и пытаться смоделировать его поведение - в конечном итоге мы воспроизведем и его внутреннее строение.
Так и - зачем? в данном случае? или чей И мы хотим воспроизвести? Если человеческий, то для этого есть более увлекательные методы.. Кстати, ([54]) убогих ресурсов человеческого интеллекта достанет на то, что бы не только создать искусственный, но и... обойтись без него! Тут я склоняюсь к мнению, что развитие скорее пойдет по пути "скрещивания" т.е. киборги. Хоть заврта не откажусь впаять в мозги пару-тройку гигов оперативки + выделенку через левое ухо для подключения к гуглу.. :)
← →
YurikGL © (2005-01-30 11:09) [70]
> И как в любой программе невозможно заложить базу всех мыслимых
> опасностей, рано или поздно этот ИИ "погибнет" от укуса
> маленького паучка.. которого забыли описать создатели..
> Но у естественного интеллекта сработает интуиция, чувство
> брезгливости, да просто настроение, наконец!
Чувство брезгливости тоже можно описать. И даже настроение... Принципиальных ограничений здесь нет.
← →
AndB © (2005-01-30 11:12) [71]ну и, к слову, не только инстинкты движут естественным И.. есть еще и "лишние сущности", как то: честь, совесть, стыд.. И отдельные такие сущности оказываются сильнее инстинктов, откуда иначе факты самопожертвований (спасти др.особь ценой собств.жизни, т.е. "задавить" основной инстинкт) и т.п.?
Интересно, станет ли яндексу стыдно за неверно данный ответ?
← →
AndB © (2005-01-30 11:17) [72]to [70] изумительно! Вот и опишите алгоритм действия ИИ в предложенной ситуации - с одной стороны заботиться о собственой сохранности :: с другой - спасти жизнь "высшего существа" не в ущерб другим коллегам и прочим богам. :)
← →
YurikGL © (2005-01-30 11:46) [73]
> AndB © (30.01.05 11:12) [71]
> ну и, к слову, не только инстинкты движут естественным И..
Психологи говорят, что только инстинкты... И их всего лишь три. См выше.
> Вот и опишите алгоритм действия ИИ в предложенной ситуации
> - с одной стороны заботиться о собственой сохранности ::
> с другой - спасти жизнь "высшего существа" не в ущерб другим
> коллегам и прочим богам. :)
Механизмы нечеткой логигики решают такие задачи не хуже человека.
← →
вредитель (2005-01-30 13:31) [74]AndB
>необходимы животные инстинкты для функционирования ИИ
Это есть лишнее, если понимать интеллект как способность решать задачи на основе программируемой логики. Т.е. интеллект должен делать то, что не заложено механизмами его реализации. Такая способность называется способностью к творчеству. Т.о. важны две составляющие - инстинкт самосохранения - единственная потребность чисто информационной сущности и способность к творчеству.
>Ну не будет у него никаких побудительных мотивов для выполнения к-либо мыслительной деятельности
Таким мотивом должны являться мы.
>Кстати, ([54]) убогих ресурсов человеческого интеллекта достанет на то, что бы не только создать искусственный, но и... обойтись без него!
Аргументы в студию. В процессе познания, открывая все больше человек получает все растущее количество вопросов. На определенном этапе человек не сможет заниматься всеми вопросами и ему придется выбирать, какие вопросы решать, а какие нет. Самое веселое в том, что вопрос, показавшийся малопереспективным и поэтому отброшенный может нести в себе большие выгоды, однако взамен него решается другой, менее переспективный вопрос, на который отведены некоторые ресурсы, количество которых ограничено. Т.е. человечество пойдет по пути сверхспециализации и в конечном итоге загнется. Выходом из этой проблемы является создание творческого усилителя интеллекта. Я очень надеюсь на то, что это ему удастся.
← →
kaif © (2005-01-30 14:22) [75]В процессе познания, открывая все больше человек получает все растущее количество вопросов.
Как зовут человека, о котором идет речь? Где живет этот чел? Или речь идет о "человеке вообще"? Где тот человек вообще, который "задает все больше вопросов"? Опять какая-то лишняя сущность. Вот Бога типа нету, а "человек вообще" - есть.
Я знаю, как все будет происходить. Никакого ИИ вообще не будет. Сначала всех пересчитают, всем присвоят ID и встроят чип со штрих-кодом на лоб и на руку, а может и на задницу. Затем всем встроят более продвинутый чип в мозг. Этот чип будет "мозговые процессы" (или просто сигналы с дополнительных искусственных рецепторов типа усиков или примитивных видеокамер) передавать прямо на Яндекс в виде строки поиска. А Правительство всех обяжет команды Яндекса исполнять в целях безопасности и борьбы с терроризмом. Всякий, кто команду исполнять не будет, в ЖЭКЕ не получит форму №9.
Вот наши дети уже нашли, как отвечать на вопросы, на который их мозг отвечать уже не в силах - они юзают Яндекс. Нужно написать сочинение "Базаров - рулит" - пожалуйста в Яндексе 100шт. Нужно написать "Базаров - отстой" - пожалуйста еще 100 таких же гениальных и без орфографических ошибок. Так что оптимизация будет идти по пути сокращения лишних сущностей между училкой и Яндексом. Училка спрашивает, сколько будет 2x2, ученик, если он "в сети", пересылает запрос на Яндекс - тот отвечает, язык ученияка тоже к чипу подключен - все в порядке. С практической точки зрения разницы нет - ученик знает или Яндекс за него отвечает. Важен результат. А все остальное - лишние сущности. Воз зачем, к примеру, мозг? Только место в голове занимает. а там моожно вместо мозга знаете сколько полезных модемов разместить? Даже для принтера место останется. И обработка информации будет более централизованная. Вот YuriGL не даст соврать - любая централизованная обработка более антикризисная, чем децентрализованная. Следовательно, мозг не нужен. А нужен хороший модем и короший конвертор сигналов от рецепторов туда лальше в сеть. Никакой ИИ нафик не нужен. Нужен чел, который есть двуногое без перьев и без мозгов.
← →
YurikGL © (2005-01-30 14:29) [76]
> kaif © (30.01.05 14:22) [75]
> Сначала всех пересчитают, всем присвоят ID и встроят чип
> со штрих-кодом на лоб и на руку, а может и на задницу.
Очень может быть....
> Вот YuriGL не даст соврать - любая централизованная обработка
> более антикризисная, чем децентрализованная.
Ага...только в нормальном состоянии, она менее эффективна. Т.е. надо построить такую систему, которая бы централизовывалась в кризисных ситуациях и децентрализовывалась в не-кризисных... вот только> Нужен чел, который есть двуногое без перьев и без мозгов. кому нужен? Если только тем, кто это все определяет...
← →
kaif © (2005-01-30 14:45) [77]Человечество должно превратиться в муравейник. Вот конкретный муравей не важен. Важен муравей вообще. Муравей вообще имеет ряд интересов, например, жить полноценно в лесу и съесть, если понадобится, дохлого (а то и живого зазевавшегося!) быка. Отдельные муравьи это не могут, поэтому у них имеется сеть. Химическая. Каждый муравей ходит по химической сети и оставляет сигналы для других муравьев. Сами муравьи имеют по одной зрительной фасетке. Зато муравей вообще имеет миллиард таких фасеток, так как это сеть. Собственно, возможно, муравьи раньше имели больше фасеток, так как у муравья-воина их целых 12 штук. У стрекозы их для сранения 80 тысяч в каждом глазу. А у человека их пока около 6 млн в каждом глазу плюс объектив самонаводящийся. Но скоро у нас у всех тоже будет ровно по одной фасетке. Человеку вообще совсем не нужна такая роскошь, как 6 млн фасеток в глазу у каждой отдельной особи. Это ровно (6*10^6 - 1) лишних сущностей. Так как для выживания человека вообще нужна экономия ресурсов на местах и централизация ресурсов в центре ответственности, то есть в Кремле. В Кремле будет сидеть большая человеческая Матка (не подумайте чего-то не то), которая путем клонирования и генной инженерии будет штамповать однофасеточных граждан без мозга, но с модемом в голове. А человек вообще будет отвечать на все новые и новые вопросы, которые вообще на этом "пути познания" будут возникать. Например, как увеличить производительность отдельных особей для целей выживаемости человека вообще? Нужно ли их сделать более мелкими и подвижными, снабдить их еще дополнительной парой конечностей, так как на шести ногах очевидно удобнее перемещаться, чем на четырех, я уже не говорю о двух. Размер отдельных граждан можно будет уменьшить до одного дюйма в длину (оптимизация особей по размеру), чтобы они могли поднимать вес, соизмеримый с весом собственного тела. Еще неплохо сдеать так, чтобы они больно кусались, тогда можно сократить количество человеков-воинов с 12 фасетками, которые все равно ничего не производят, а только хлеб жрут. Я лично вижу большое будущее у человечества без всякого ИИ. Достаточно иметь Правительство, Сеть и Благие намерения во имя Человека вообще.
← →
YurikGL © (2005-01-30 14:52) [78]>А у человека их пока около 6 млн в каждом глазу плюс объектив самонаводящийся.
У человека, если я не ошибаюсь, не фасеточное зрение :-)
← →
kaif © (2005-01-30 15:06) [79]YurikGL © (30.01.05 14:52) [78]
>А у человека их пока около 6 млн в каждом глазу плюс объектив самонаводящийся.
У человека, если я не ошибаюсь, не фасеточное зрение :-)
Хорошо. У человека лишних 6 млн - 1 палочек и колбочек. Так я точно выразился? Суть хотя бы ясна того, что я хочу сказать или я уже незаметно для себя с ИИ беседую?
У человека много чего лишнего есть. Например, чувство юмора. Кстати, как Вы собираетесь его моделировать при помощи нейронных сетей? Я вот знаю кучу людей, у всех в головах имеется мозг и в каждом их этих мозгов куча каких-то "процессов". Но у одних чувство юмора присутстсвует, а у других его отродясь не было. Фрейд учил, что чувство юмора связано с работой бессознательной психики, то есть происходит в конечном счете из приучения к горшку. Как реализовать чувство юмора у ИИ? А самое для меня интересно, это вот что: какие процессы в ИИ будут "сознательными", а какие "бессознательными" и как отличать одни от других, если сознание, интеллект и процессы в мозгу или в нейронных сетях суть лишь "разные навания" для одного и того же?
← →
YurikGL © (2005-01-30 15:15) [80]>Например, чувство юмора. Кстати, как Вы собираетесь его
>моделировать при помощи нейронных сетей?
Обучить юмору можно точно так же, как и любой другой оценке.
Страницы: 1 2 3 4 вся ветка
Текущий архив: 2005.03.06;
Скачать: CL | DM;
Память: 0.7 MB
Время: 0.059 c