Форум: "Прочее";
Текущий архив: 2011.12.18;
Скачать: [xml.tar.bz2];
ВнизПосоветуйте как лучше сделать Найти похожие ветки
← →
DVM © (2011-09-02 00:06) [80]
> Котик Б (01.09.11 22:06) [78]
> Судя про этой фразе скорость возможна вплоть до 1000 запросов
> в секунду.
Нет, такого количества не будет. По крайней мере не в этой программе. Максимум 10-100 (последнее очень редко) в секунду, но опять же не каждую секунду, данных может не быть несколько часов, потом появиться куча. Поток данных может и не очень большой, но данные будут собираться годами и среди двух порций данных, разделенных месяцами как ни странно тоже могут быть дубли.
> В условии отсутствуют два очень важных параметра: ресурсы
> и скорость.
>
> 1. Какими аппартными/програмными ресурсами располагаем для
> решения задачи ?
> Вдруг окажеться что эту задачу нужно решать в реалтайме
> на обычной офисной машинке.
Офисная машина вполне потянет. Как я уже писал данных не много в единицу времени, но собираться они будут долго. Не особенно критично, если поиск по базе уже принятых данных будет производиться скажем за секунду.
Вобщем, проблема не в производительности, как я, думаю, понятно. Мой вопрос состоял лишь в организации расширяемой хэш таблицы лежащей на диске, собственно я ответ на этот вопрос уже нашел в книге, среди миллиарда записей класс такой таблицы находит искомую очень быстро.
> Сергей М. © (01.09.11 23:00) [79]
> Ну возьми тот же TClientDataSet что прямо перед носом)
Он свои данные проецирует полностью в память, что при большом объеме их становится проблемой.
← →
Anatoly Podgoretsky © (2011-09-02 10:00) [81]> DVM (02.09.2011 00:06:20) [80]
Тогда возьми другую СУБД, их же как собак нерезаных.
← →
Омлет © (2011-09-02 14:17) [82]Кто как извращается... http://habrahabr.ru/blogs/php/127569/
Страницы: 1 2 3 вся ветка
Форум: "Прочее";
Текущий архив: 2011.12.18;
Скачать: [xml.tar.bz2];
Память: 0.58 MB
Время: 0.007 c