Форум: "Прочее";
Текущий архив: 2014.02.09;
Скачать: [xml.tar.bz2];
Внизищем системного программиста... Найти похожие ветки
← →
istok (2013-08-26 14:58) [0]ищем системного программиста на delphi со знанием tcp\ip, winapi на удаленные проекты, прежде всего связанные с разработкой различных парсеров и либ-надстроек на базе netfiltersdk (http://netfiltersdk.com/). каждый проект оцениваем\оплачиваем отдельно, задач у нас много.
просьба писать в alex_for_chat@mail.ru
спасибо!
← →
Лукошко (2013-08-26 16:06) [1]Default City, судя по всему
← →
имя (2013-08-26 17:14) [2]Удалено модератором
← →
DVM © (2013-08-26 17:32) [3]По всей видимости работа будет состоять в написании анализаторов протоколов для некой системы перехвата и анализа трафика (система корпоративного мониторинга, возможно, какая то).
← →
istok (2013-08-27 12:59) [4]
> DVM © (26.08.13 17:32) [3]
угу, вы правы)
например, одна из задач - перехват вебмейлов: gmail, windows live, yahoo mail..
← →
han_malign (2013-08-28 16:15) [5]
> перехват вебмейлов: gmail, windows live, yahoo mail..
- манипулируемых через www? Ну-ну...
HTTP трафик захватить не проблема(раз уж заявлен MITM для SSL), а вот скомпоновать из него "потипу" исходное письмо, из инкрементальных посылок/запросов - когда каждое состояние страницы на 90% генерируется на лету туевой хучей скриптов, а протокол обмена верхнего уровня(структура запросов/ответов(чаще всего JSON, в лучшем случае - на объектах(google, например - все на вложенных массивах предопределенной структуры фигачит))) и соотвественно скрипты компоновки - меняется раз в неделю...
- дерзайте...
← →
картман © (2013-08-28 16:30) [6]
> han_malign (28.08.13 16:15) [5]
и просто текст не вытащить?
← →
DVM © (2013-08-28 16:53) [7]
> han_malign (28.08.13 16:15) [5]
> HTTP трафик захватить не проблема(раз уж заявлен MITM для
> SSL), а вот скомпоновать из него "потипу" исходное письмо,
> из инкрементальных посылок/запросов - когда каждое состояние
> страницы на 90% генерируется на лету туевой хучей скриптов,
> а протокол обмена верхнего уровня(структура запросов/ответов(чаще
> всего JSON, в лучшем случае - на объектах(google, например
> - все на вложенных массивах предопределенной структуры фигачит)))
> и соотвественно скрипты компоновки - меняется раз в неделю.
> ..
Гораздо проще не заниматься этой фигней (хотя там все реально), а воссоздавать внешний вид страницы, которую видит пользователь на основе перехваченных данных.
← →
han_malign (2013-08-29 08:27) [8]
> не заниматься этой фигней (хотя там все реально), а воссоздавать
> внешний вид страницы
- ну попробуй для начала... - поддержать все версии браузеров и установленых плагинов, сохранить совместность всех локальных и прокси кэшей(библиотек скриптов в том числе)...
Пользователю пофиг, что вы фигней считаете - если в продажной позиции сказано - перехват вебмейлов, то он хочет видеть письмо - с блэкджеком и атачами...
И по барабану ему, что атач на серверное харнилище полгода назад заливался, а письмо вчера - с того же хранилища - форварднули.
> и просто текст не вытащить?
- вытащить, но надо раз в неделю проверять, что он еще есть - там же где вчера был...
Web-программисты нынче дешевы, ротация кадров бешенная, поделок вроде GWT - до хрена и маленькая тележка, мода в дизайне - как флюгер и каждый норовит переплюнуть другого по количеству финтифлюшек...
Проще вести тотальную запись HTTP трафика, тогда действительно - не без бубна конечно - но все восстанавливается...
А для задач отлова инсайдеров - вообще досточно только POST запросы отлавливать(в контексте HTTP), на предмет слива документов...
Лет пять назад, когда было - два комерческих почтовых движка(mail.ru, rambler.ru, ynadex.ru, pochta.ru, zenon.ru, km.ru, AOL.com, Yahoo.com, ...), пяток аналогичных самописных(8-12.ru, mnogo.ru, mail.com, hob.ru, chat.com, ...), один монстробразный Hotmail.MSN, но еще на чистом HTML, без AJAX и серверных хранилищ, и безусловный монстр gmail, но еще со сквозными ключами сессий и документа в URL - вот тогда все просто было...
← →
DVM © (2013-08-29 09:48) [9]
> han_malign (29.08.13 08:27) [8]
> - ну попробуй для начала... - поддержать все версии браузеров
> и установленых плагинов, сохранить совместность всех локальных
> и прокси кэшей(библиотек скриптов в том числе)...
>
> Пользователю пофиг, что вы фигней считаете - если в продажной
> позиции сказано - перехват вебмейлов, то он хочет видеть
> письмо - с блэкджеком и атачами...
Я делал с полным перехватом всего трафика и последующим отображением оригинальной страницы в том виде в котором ее видел пользователь вебмейла. Вполне неплохо получалось, 1 в 1 страница. Единственно кэширование портит картину, если часть данных закеширована браузером, то имея неполный трафик мы не составим целостный пазл, но текст будет все равно.
← →
картман © (2013-08-29 11:02) [10]
> han_malign (29.08.13 08:27) [8]
> - вытащить, но надо раз в неделю проверять, что он еще есть
> - там же где вчера был...
есть довольно точные алгоритмы определения, где тут что.
Страницы: 1 вся ветка
Форум: "Прочее";
Текущий архив: 2014.02.09;
Скачать: [xml.tar.bz2];
Память: 0.48 MB
Время: 0.002 c