Главная страница
Top.Mail.Ru    Яндекс.Метрика
Текущий архив: 2006.03.19;
Скачать: CL | DM;

Вниз

Генетические алгоритмы, нейронные сети...   Найти похожие ветки 

 
DillerXX ©   (2006-02-24 22:24) [0]

Кто работал? Просто опять вспомнил, попалась мне статья про генетические алгоритмы.. интересная вещь судя по всему. Увлекался кто-нибудь? Если да, то какие ощущения? :) Они я так понял использутся для решения сложных систем уравнений. А можно ли заюзать как-то в самообучающемся алгоритмы? Например образов. Алгоритм сначала учится определять образы, а потом идентифицировать :)


 
DillerXX ©   (2006-02-24 22:25) [1]

Вот кстати: http://kladovka.net.ru/delphibase/?action=viewfunc&topic=mathalg&id=10102


 
Ученик чародея ©   (2006-02-24 22:39) [2]

http://ai.h16.ru


 
Ученик чародея ©   (2006-02-24 22:43) [3]

Если коротко, то в ГА основную сложность представляет подбор оценочной функции. А дальше все стандартное.

ГА - метод нахождения экстремумов оценочной функции в многомерном пространстве.

PS
В качестве недостатка – методы ГА не полностью соответствуют принципу повторяемости результатов, так как основаны на псевдослучайных алгоритмах.


 
Nikolay M. ©   (2006-02-24 22:45) [4]

У меня соаспирантник применял ГА к распознаванию речи. Говорит, что-то получилось :) Хотя распознавание речи, имхо, такая вещь, в которой в одиночку за 3 года сделать что-то стоящее нереально. Но по-любому употребление слова "учится" некорректно. Любую нейронную сеть нужно обучать.
К слову, видел давно статью о том, как ГА были применены к роботу-крылу (аналог птичьего крыла) - там очень наглядно было видно, как крыло учится "летать", пусть только по вертикали: генерирует множество взмахов, забраковывает неудачные и модифицирует те, которые давали какой-то результат. Забавное, д.б. зрелище :)


 
DillerXX ©   (2006-02-24 23:02) [5]


> У меня соаспирантник применял ГА к распознаванию речи

А к образам не пробывал? Или например как на счёт самообучающихся шашек? Шахматы не беру, так как слишком сложно. Если шашки проиграют сами с собой несколько тысяч патий, и каждый раз будут делать выводы, то при правильном алгоритме это будет настоящий монстр шашек :) может быть :)


 
Nikolay M. ©   (2006-02-24 23:08) [6]


> А к образам не пробывал?


Нет, у него тема про распознавание речи. А несколько нейрончиков для распознавания простых образов мы чуть ли не на уровне курсовиков программировали.


> при правильном алгоритме это будет настоящий монстр шашек

Попробуй :)
Но что-то мне подсказывает, что перебор запрограммировать проще :)


 
TUser ©   (2006-02-24 23:12) [7]

Для ГА - главное выбор порядка аргументов.


 
DillerXX ©   (2006-02-24 23:29) [8]


> А несколько нейрончиков для распознавания простых образов
> мы чуть ли не на уровне курсовиков программировали

А расскажите поподробнее :)

> Но что-то мне подсказывает, что перебор запрограммировать
> проще :)

Ну да конечно... но ведь круче всё это сделать чем-то наподобие ИИ :)


 
Marser ©   (2006-02-24 23:56) [9]

> А к образам не пробывал?

Мы на лабах распознаём зашумленные символы алфавита. Честно говоря, Fine Reader, использующий статистические методы, нервно курит в сортире.


 
Ученик чародея ©   (2006-02-25 00:15) [10]

>>Marser ©   (24.02.06 23:56) [9]

Какой алгоритм?


 
Marser ©   (2006-02-25 00:26) [11]

> [10] Ученик чародея ©   (25.02.06 00:15)

Сети Хемминга и Хопфилда. В принципе, до этих лаб мы пока ещё не дошли :-)


 
DillerXX ©   (2006-02-25 00:41) [12]

Кстати помню в какой-то книге ооочень давней про компутеры прочитал как один товарищ обучал свою программу распознавать на рисунке арка перед нами или нет. Если кубик опирается на другие два - то арка. А если нет - не арка. Для начала наверное нечто подобное следует написать :)


 
Nikolay M. ©   (2006-02-25 00:45) [13]


> DillerXX ©   (24.02.06 23:29) [8]
> А расскажите поподробнее :)


Студент не знает в двух случаях - когда он еще не сдал и когда он уже сдал. Я сдал лет 5 назад :)))
На самом деле была простенькая сеть с всего одним, кажется, нейроном, натравливали на нее шаблоны из 5х5 клеток с изображением цифр, обучали (т.е. настраивали весовые коэффициенты), а потом уже давали на вход разные цифры - со смещениями, поворотами, шумами и тд. Как ни странно - работало :)
Вот, из старых ссылок осталась только одна рабочая, посмотри, если интересно, там много статей и какие-то программы

http://user.hamovniki.net/~alchemist/NN/NN.htm


 
Ученик чародея ©   (2006-02-25 00:50) [14]

>>Marser ©   (25.02.06 00:26) [11]

Ну я это классическим Back Propagation делал, только уровни цвета нужно привести к бинарному виду(1 битный монохромный цвет) ну и я использовал механизм контроля правильности, где выходы, на каждый из которых подавался 1 бит Ansi кода символа, был дублирован еще одним выходным нейроном с четко установленной единицей для контроля достоверности распознавания(итого 8 выходов для ANSI кода и 8 ключевых выходов, где исследуются их отличия от 1). Только до конца все это не доделал, так как пришлось (по требованиям) еще "железку" у диплому делать.

В результате получился набор незаконченных разработок, который, правда, удалось защитить на 5.



Страницы: 1 вся ветка

Текущий архив: 2006.03.19;
Скачать: CL | DM;

Наверх




Память: 0.5 MB
Время: 0.036 c
2-1141394071
n_sch
2006-03-03 16:54
2006.03.19
Помогите разобраться с DBRichEdit !!!


2-1140208811
Saimon
2006-02-17 23:40
2006.03.19
Как добиться в дельфи, чтобы форма была на уровне рабочего...


3-1138139842
asani
2006-01-25 00:57
2006.03.19
как из striggrid передать данные в БД под sql 2000


2-1140677668
Новочеркасский Волк
2006-02-23 09:54
2006.03.19
Отправка почты. Через NMSMTP.


2-1141461517
Viktop
2006-03-04 11:38
2006.03.19
Установка связи между таблиц (ADO)