Форум: "Прочее";
Текущий архив: 2007.06.10;
Скачать: [xml.tar.bz2];
ВнизI, robot. Найти похожие ветки
← →
VirEx © (2007-05-15 21:56) [0]только посмотрел фильм, и пришел к кое-какому выводу ...насчет развития ИИ, и трех законов.
сам сабж-фильм конечно наивен по своему (в ~2020г. огномные высоченные здания, роботы из сверхпрочного пластика/металла, которых производит одна корпорация, все роботы следуют трем правилам, люди выглядят как будто живут в бандитских кварталах нью-йорка (эдакий киберпанковский стиль), ну и т.п.)
1) нельзя чтобы власть была только у одного человека/компьютера
тоесть тот кто у власти - единица/unit, становится самым уязвимым/нестабильным юнитом, от которого зависят массы
эдакий рычаг
представьте, есть некая масса единиц, все единицы жестко зависят от одной, вдруг одной единице захотелось чтобы все сдохли, все подыхают, история массы закончилась.
но если у каждой единицы будет свобода, и взаимодействие между ними будет по типу "упорядоченного хаоса" (ну это жутко упрощенный пример), будет развитие
2) жесткая логика, имхо отсутствие гибкости - гибель в среде, имеющей хаотические/вероятностные законы развития
3) зачем человеку робот? чтобы упростить жизнь? ну сделали ему робота, сделали дом следящий за его жизнедеятельностью, человеку ничего не надо делать, за него все сделают сами, роботы.
(утрирую)
прошел год, два, десять, человек не похож на себя, кусок сала которому не хочется жить от того что смысл жизни легко воспроизвести в любую минуту.
ему не нужно ничего. ...тоесть ему не нужна жизнь.
(типа мыслю от противного)
еще пример: жил был администратор, и решил автоматизировать всю жизнедеятельность своей работы (программ/сервака), нагородил программно-системный комплекс. произошла ошибка, он полез во внутренности, поправил пару конфигов, восстановил бэкап. всё вновь заработало как часы. цель работы исчезла?
4) дальше поперла бредятина (еще хуже чем вышеперечисленный текст)...
← →
homm © (2007-05-15 21:58) [1]> сам сабж-фильм конечно наивен по своему (в ~2020г. огномные
> высоченные здания, роботы из сверхпрочного пластика/металла,
> которых производит одна корпорация, все роботы следуют
> трем правилам, люди выглядят как будто живут в бандитских
> кварталах нью-йорка (эдакий киберпанковский стиль), ну и
> т.п.)
Этот фильм покниге, и хотя, позор мне, я не знаю даже примерно когда она написана, могусказать что не в нашем тысячелетии — точно. (годах так в 60-х наверно)
← →
Real © (2007-05-15 22:05) [2]
> 4) дальше поперла бредятина (еще хуже чем вышеперечисленный
> текст)...
Читай Азимова, а то что в Голливуде снимают - так не первую книгу таким образом испортили. Насколько я помню, "Я-робот" это цикл рассказов, большая часть которых вообще в сценирии никак не использовалась
← →
keymaster © (2007-05-15 22:06) [3]А матрицу все посмотрели?
← →
Kolan © (2007-05-15 22:08) [4]> А матрицу все посмотрели?
> только посмотрел фильм
Где вы такие «новинки» берёте?
← →
Knight © (2007-05-15 22:08) [5]Каждый воспринимает данные субъективно, извлекая из них свою информацию… поэтому информативность, обусловленная локальной субъективностью, порождает несоответствие выводов и объективных идей, которые авторы старались донести до конечного необъективного зрителя… %)
← →
VirEx © (2007-05-15 22:09) [6]итак. продолжается действия грибов. :)
от впечатлений по фильму "автостопом по галактике" (смотрел вчера) решил добавить отсебятину.
рано или поздно человек станет воспринимать космос как неисчерпаемый источник обитания :)
так вот, есть пару мыслей насчет межгалактической этики поведения человека, эдакие рекомендации:
1) no panic (с) это первое правило, хотя и не мое :)
2) в восприятии внеземных видов жизнедеятельности, не испытывать никаких земных эмоций, типа "восторга", "ужаса", "удивления", ибо это может привести к плачевным результатам
3) при контакте с представителем внеземной цивилизации - не думать ни о чем вызывающем какие-либо эмоции
4) не прикасаться к представителям внеземных цивилизаций
5) в любых действиях вне земли, полагаться только на интуицию
← →
IMHO © (2007-05-15 22:14) [7]Надо читать Азимова, а не смотреть голливудскую жвачку. Голливудскую жвачку тоже можно иногда смотреть, но обсуждать ее всерьез - это потеря времени.
← →
VirEx © (2007-05-15 22:18) [8]кстати еще чуть не забыл мыслю по поводу роботов.
робот - автономная единица жизнедеятельности.
в случае когда изменили часть его программ, что привело к нарушению человеческого закона (убийство/хулиганство/кража и т.п.), как расценить данное действие?
я думаю это можно приравнить к состоянию аффекта для человека, при совершении того или иного проступка, и если программу "прошили" в робота насильно, то его участь должна быть облегчена.
← →
antonn © (2007-05-15 22:19) [9]VirEx, посмотри неплохой боевичек Робокоп:) Или Терминатор, недавно вроде сняли, про временные парадоксы позже напишешь :))
← →
VirEx © (2007-05-15 22:25) [10]
> [4] Kolan © (15.05.07 22:08)
> Где вы такие «новинки» берёте?
> [9] antonn © (15.05.07 22:19)
> VirEx, посмотри неплохой боевичек Робокоп:) Или Терминатор,
> недавно вроде сняли, про временные парадоксы позже напишешь
> :))
я не киноман, но терминатора и робокопа смотрел когда еще прыщей небыло :)
просто сто лет фильмов не смотрел, решил соседа подсуетить, покопаться в его домашней dvd библиотеке.
а всетаки не сравниться никакому фильму-фантастической-комедии с пятым элементом.... :(
← →
Knight © (2007-05-15 22:27) [11]«Призрачный гонщик» смотрел?
← →
VirEx © (2007-05-15 22:28) [12]
> [1] homm © (15.05.07 21:58)
а экранизации "Плутония" случайно небыло? я бы с удовольствием посмотрел
← →
Knight © (2007-05-15 22:28) [13]> [12] VirEx © (15.05.07 22:28)
Наверно не стоит… будет такая же муть как «Дозоры», «Волкодав» и прочее…
← →
VirEx © (2007-05-15 22:33) [14]
> [13] Knight © (15.05.07 22:28)
ну может голливуд подсуетится, у них красивей выйдет в любом случае...
← →
TUser © (2007-05-16 10:56) [15]
> 1) нельзя чтобы власть была только у одного человека/компьютера
> тоесть тот кто у власти - единица/unit, становится самым
> уязвимым/нестабильным юнитом, от которого зависят массы
> эдакий рычаг
> представьте, есть некая масса единиц, все единицы жестко
> зависят от одной, вдруг одной единице захотелось чтобы все
> сдохли, все подыхают, история массы закончилась.
> но если у каждой единицы будет свобода, и взаимодействие
> между ними будет по типу "упорядоченного хаоса" (ну это
> жутко упрощенный пример), будет развитие
Об этом уже давно говорят демократы.
← →
StriderMan © (2007-05-16 13:23) [16]где грибы брал?
ветка напоминает песню
Сектор Газа - "Видак"
← →
KSergey © (2007-05-16 13:53) [17]> VirEx © (15.05.07 22:09) [6]
> так вот, есть пару мыслей насчет межгалактической этики
> поведения человека, эдакие рекомендации:
и кому они нужны эти рекомендации?
Собак то немногие понимают, хотя они вполне земные. И беда ведь даже не в том, что не понимают, но и не хотят понять!
А уж зелененьких или тама фиолетовеньких - если разыщутся - и вовсе нафиг кто-то понимать захочет. Перебил всех (как индейцев в америке, к примеру), нефть (к примеру) откачал - да и дальше поехали.
Так и будет.
← →
Gero © (2007-05-16 13:57) [18]> [7] IMHO © (15.05.07 22:14)
> Надо читать Азимова, а не смотреть голливудскую жвачку.
Во-во.
← →
Думкин © (2007-05-16 13:59) [19]> KSergey © (16.05.07 13:53) [17]
Это если, какие испанцы или бриты будут. А мы русские ассимилируем. :))
← →
VirEx © (2007-05-16 20:42) [20]вот еще, вспомнил что вчера не успел записать, еще одна рекомендация:
6) быть максимально расслабленным эмоционально и физически, эдакая потенциальная сила, похоже на то как каратист перед боем полностью расслаблен, или боксер, вот вот готовый нанести удар
← →
@!!ex © (2007-05-16 21:20) [21]3 закона роботехники - лажа полная.
Добро/зло, правда/не правда - абстракция, значит и закон - абстракция, значит его нельзя запрограммировать, а если как то все же умудрились пихнуть их в голову робота, то никогда нельзя быть уверенным, что не возникнет ситуации в которой законы будут действовать не так.
По поводу кусков сала.
ТОлько вчера закончил перечитывать Азимова "Лакки Старра". ИМХО не шедевр, н интересно.
Так там было про сирианцев, которые жирели от того, что у них роботы были.
И про то,ч т законы обмануть можно - там тоже было.
← →
homm © (2007-05-16 21:25) [22]> И про то,ч т законы обмануть можно - там тоже было.
Помоему у него все книги об этом, нет?
← →
@!!ex © (2007-05-16 21:27) [23]> [22] homm © (16.05.07 21:25)
У него есть куча книжек, где нет ни слова о роботах. :)
Поэтому - нет.
← →
Gero © (2007-05-16 21:33) [24]> [21] @!!ex © (16.05.07 21:20)
> Добро/зло, правда/не правда — абстракция
В пресловутых трех законах эти термины не используются.
Используется термин «вред», который достаточно однозначен и который теоретически можно запрограмировать. При такой трактовке отклонения если и будут, то они будут очень редкими и несущественными.
← →
@!!ex © (2007-05-16 21:46) [25]> [24] Gero © (16.05.07 21:33)
> > [21] @!!ex © (16.05.07 21:20)
> > Добро/зло, правда/не правда — абстракция
>
> В пресловутых трех законах эти термины не используются.
> Используется термин «вред», который достаточно однозначен
> и который теоретически можно запрограмировать. При такой
> трактовке отклонения если и будут, то они будут очень редкими
> и несущественными.
"вред" - тоже абстракция.
Для ИИ не будет проблемой обойти их.
Съехавщший ИИ в фильме - пример.
И в книжках примеров вагонами.
Да и просто посидеть подумать, тысяча способов можно придумать, заставить робота закон нарушить и 1000 случаев, когда он нарушит их сам.
← →
EvS © (2007-05-16 21:50) [26]Простейшая ситуация:
Опасность грозит двоим, спасти он cможет только одного.Каковы его действия?
← →
X9 © (2007-05-16 21:54) [27]> [26] EvS © (16.05.07 21:50)
> Простейшая ситуация:
> Опасность грозит двоим, спасти он cможет только одного.Каковы
> его действия?
Самоничтожение?
← →
Gero © (2007-05-16 21:56) [28]> «вред» — тоже абстракция.
Едва ли.
Понятию «вред человеку», особенно если вопринимать человека как человеческий организм, можно дать весьма точное и недвусмысленное определение.
← →
Gero © (2007-05-16 21:58) [29]> [26] EvS © (16.05.07 21:50)
> Опасность грозит двоим, спасти он cможет только одного.Каковы
> его действия?
По-моему это банальная ситуация, спасет одного, которого спасти проще либо приоритетней. По потношению ко второму робот не бездействовал, так как решал более приоритетную задачу.
← →
Knight © (2007-05-16 21:59) [30]> [28] Gero © (16.05.07 21:56)
Например…
← →
Gero © (2007-05-16 21:59) [31]> [30] Knight © (16.05.07 21:59)
Это скорее к биологам вопрос.
← →
Gero © (2007-05-16 22:01) [32]> Да и просто посидеть подумать, тысяча способов можно придумать,
> заставить робота закон нарушить и 1000 случаев, когда он
> нарушит их сам.
Напрямую — навряд ли. Косвенно и неумышленно — возможно, но в этом нет ничего страшного.
← →
Knight © (2007-05-16 22:03) [33]> [32] Gero © (16.05.07 22:01)
А как раставлять приоритеты? Например пожар в доме… в квартире раненых хозяин, жена и пара детей… помочь можно только одному взрослому или двум детям… кто важнее?
← →
Gero © (2007-05-16 22:05) [34]> [33] Knight © (16.05.07 22:03)
Ну вот абстрактный сторонний человек оказавшйся в такой ситуации кого бы спас? Очевидно, детей или ребенка. Так должен поступить и робот.
← →
Knight © (2007-05-16 22:06) [35]> [32] Gero © (16.05.07 22:01)
Любое «хорошо» и «плохо» относительно… совесть робота этого не вынесет… а если вынесет, то нарушит закон робототехники, а если нарушит, то может нарушать его когда угодно и где угодно… была бы причина :)
← →
Gero © (2007-05-16 22:07) [36]В «Обнаженном солнце» Элайдж Бейли замечает, что Законы «сознательно искажены», потому что робот может нарушить их по незнанию. Он переформулировал в «правильный вид» Первый закон так: «Робот не может делать ничего, что, насколько ему известно, причинит вред человеческому существу или умышленно допустить, чтобы человеческому существу был причинен вред».
← →
Knight © (2007-05-16 22:08) [37]> [34] Gero © (16.05.07 22:05)
Это всё человеческие отмазки… многие вообще сделают ноги, потому как для них закон самосохранения превыше всего…
← →
homm © (2007-05-16 22:09) [38]> Knight
Блин, ну че тупить то так? Какая нафиг еше совесть? Есть задачи, есть система приоритетов. Какие проблемы то?
← →
Gero © (2007-05-16 22:10) [39]> [37] Knight © (16.05.07 22:08)
При чем здесь многие, робот ноги не сделает, потому что для него собственная безопасность менее приоритетна. Мне кажется, я достаточно ясно выражаюсь и давать более точные формулировки смысла не вижу.
← →
Knight © (2007-05-16 22:13) [40]> [36] Gero © (16.05.07 22:07)
А что для робота «вред»? Физический ещё как-то можно определить… а психологический?
Страницы: 1 2 вся ветка
Форум: "Прочее";
Текущий архив: 2007.06.10;
Скачать: [xml.tar.bz2];
Память: 0.56 MB
Время: 0.043 c