Форум: "Прочее";
Текущий архив: 2006.03.19;
Скачать: [xml.tar.bz2];
ВнизГенетические алгоритмы, нейронные сети... Найти похожие ветки
← →
DillerXX © (2006-02-24 22:24) [0]Кто работал? Просто опять вспомнил, попалась мне статья про генетические алгоритмы.. интересная вещь судя по всему. Увлекался кто-нибудь? Если да, то какие ощущения? :) Они я так понял использутся для решения сложных систем уравнений. А можно ли заюзать как-то в самообучающемся алгоритмы? Например образов. Алгоритм сначала учится определять образы, а потом идентифицировать :)
← →
DillerXX © (2006-02-24 22:25) [1]Вот кстати: http://kladovka.net.ru/delphibase/?action=viewfunc&topic=mathalg&id=10102
← →
Ученик чародея © (2006-02-24 22:39) [2]http://ai.h16.ru
← →
Ученик чародея © (2006-02-24 22:43) [3]Если коротко, то в ГА основную сложность представляет подбор оценочной функции. А дальше все стандартное.
ГА - метод нахождения экстремумов оценочной функции в многомерном пространстве.
PS
В качестве недостатка – методы ГА не полностью соответствуют принципу повторяемости результатов, так как основаны на псевдослучайных алгоритмах.
← →
Nikolay M. © (2006-02-24 22:45) [4]У меня соаспирантник применял ГА к распознаванию речи. Говорит, что-то получилось :) Хотя распознавание речи, имхо, такая вещь, в которой в одиночку за 3 года сделать что-то стоящее нереально. Но по-любому употребление слова "учится" некорректно. Любую нейронную сеть нужно обучать.
К слову, видел давно статью о том, как ГА были применены к роботу-крылу (аналог птичьего крыла) - там очень наглядно было видно, как крыло учится "летать", пусть только по вертикали: генерирует множество взмахов, забраковывает неудачные и модифицирует те, которые давали какой-то результат. Забавное, д.б. зрелище :)
← →
DillerXX © (2006-02-24 23:02) [5]
> У меня соаспирантник применял ГА к распознаванию речи
А к образам не пробывал? Или например как на счёт самообучающихся шашек? Шахматы не беру, так как слишком сложно. Если шашки проиграют сами с собой несколько тысяч патий, и каждый раз будут делать выводы, то при правильном алгоритме это будет настоящий монстр шашек :) может быть :)
← →
Nikolay M. © (2006-02-24 23:08) [6]
> А к образам не пробывал?
Нет, у него тема про распознавание речи. А несколько нейрончиков для распознавания простых образов мы чуть ли не на уровне курсовиков программировали.
> при правильном алгоритме это будет настоящий монстр шашек
Попробуй :)
Но что-то мне подсказывает, что перебор запрограммировать проще :)
← →
TUser © (2006-02-24 23:12) [7]Для ГА - главное выбор порядка аргументов.
← →
DillerXX © (2006-02-24 23:29) [8]
> А несколько нейрончиков для распознавания простых образов
> мы чуть ли не на уровне курсовиков программировали
А расскажите поподробнее :)
> Но что-то мне подсказывает, что перебор запрограммировать
> проще :)
Ну да конечно... но ведь круче всё это сделать чем-то наподобие ИИ :)
← →
Marser © (2006-02-24 23:56) [9]> А к образам не пробывал?
Мы на лабах распознаём зашумленные символы алфавита. Честно говоря, Fine Reader, использующий статистические методы, нервно курит в сортире.
← →
Ученик чародея © (2006-02-25 00:15) [10]>>Marser © (24.02.06 23:56) [9]
Какой алгоритм?
← →
Marser © (2006-02-25 00:26) [11]> [10] Ученик чародея © (25.02.06 00:15)
Сети Хемминга и Хопфилда. В принципе, до этих лаб мы пока ещё не дошли :-)
← →
DillerXX © (2006-02-25 00:41) [12]Кстати помню в какой-то книге ооочень давней про компутеры прочитал как один товарищ обучал свою программу распознавать на рисунке арка перед нами или нет. Если кубик опирается на другие два - то арка. А если нет - не арка. Для начала наверное нечто подобное следует написать :)
← →
Nikolay M. © (2006-02-25 00:45) [13]
> DillerXX © (24.02.06 23:29) [8]
> А расскажите поподробнее :)
Студент не знает в двух случаях - когда он еще не сдал и когда он уже сдал. Я сдал лет 5 назад :)))
На самом деле была простенькая сеть с всего одним, кажется, нейроном, натравливали на нее шаблоны из 5х5 клеток с изображением цифр, обучали (т.е. настраивали весовые коэффициенты), а потом уже давали на вход разные цифры - со смещениями, поворотами, шумами и тд. Как ни странно - работало :)
Вот, из старых ссылок осталась только одна рабочая, посмотри, если интересно, там много статей и какие-то программы
http://user.hamovniki.net/~alchemist/NN/NN.htm
← →
Ученик чародея © (2006-02-25 00:50) [14]>>Marser © (25.02.06 00:26) [11]
Ну я это классическим Back Propagation делал, только уровни цвета нужно привести к бинарному виду(1 битный монохромный цвет) ну и я использовал механизм контроля правильности, где выходы, на каждый из которых подавался 1 бит Ansi кода символа, был дублирован еще одним выходным нейроном с четко установленной единицей для контроля достоверности распознавания(итого 8 выходов для ANSI кода и 8 ключевых выходов, где исследуются их отличия от 1). Только до конца все это не доделал, так как пришлось (по требованиям) еще "железку" у диплому делать.
В результате получился набор незаконченных разработок, который, правда, удалось защитить на 5.
Страницы: 1 вся ветка
Форум: "Прочее";
Текущий архив: 2006.03.19;
Скачать: [xml.tar.bz2];
Память: 0.48 MB
Время: 0.013 c