Главная страница
Top.Mail.Ru    Яндекс.Метрика
Текущий архив: 2002.03.14;
Скачать: CL | DM;

Вниз

Увеличение скорости обработки данных о клиентах.   Найти похожие ветки 

 
Hermit ©   (2002-02-14 10:12) [0]

Имеется восемь запросов, выбирающих информацию о клиентах:
1-ый: Общую информацию о клиенте, т.к. ОКПО, название и т.д.
2-ый: ОКПО клиента, среднедневные остатки
3-ый: ОКПО клиента, среднемесячные обороты
4-ый: ОКПО клиента, общие доходы от клиента
и т.д.

Необходимо свести эту информацию в одну результирующую таблицу.
Поскольку ОКПО клиента во всех выборках является уникальным, я пробегаю в цикле по всем записям первого запроса и на каждой итерации с помощью Locate нахожу соответствующие записи в остальных запросах. По окончанию итерации записываю все результаты поиска в отдельную таблицу.
Конечно это работает, но учитывая то, что кол. клиентов значительное, такая операция занимает очень длительное время. Как можно улучшить решение этой задачи?


 
wicked ©   (2002-02-14 10:24) [1]

ну раз ты не указал, под чем это крутится, то смею предположить, что у тебя клиент-серверная среда... если это так, то перенеси все запросы на серверную сторону.... т. е. никаких locate, всё расположено на сервере...
ещё момент - сгруппируй запросы по частоте использования... т. е., если данные запроса 1 часто используются с данными запроса 5 (например), то их стоит объединить в один запрос... также их стоит объединить, если выбираются похожие данные (из тех же самых таблиц)...

а если это крутится под desktop СУБД (foxpro, paradox), то могу предложить выделения некоего общего большого набора данных во временную таблицу (там будет, например, код ОКПО), и пробегать его в цикле один раз, попутно вытаскивая связанные данные из других таблиц.... соответственно, те таблицы просто необходимо проиндексировать по необходимым полям, в первую очередь - по коду ОКПО....
ну, вроде всё....


 
Fareader ©   (2002-02-14 10:27) [2]

Т.е. ОКПО у тебя является первичным ключом? А что в одном запросе не получается?


 
Vadim ©   (2002-02-14 10:45) [3]

В литературе рекомендуется в некоторых случаях проводить т.н. денормализацию, вводя столбцы (например, "общие доходы") в таблицу "Общая информация о клиенте" и поддерживая их актуальность при помощи триггеров. Такой подход позволяет повысить производительность при чтении данных на порядок, практически не замедляя их ввод и корректировку.


 
Hermit ©   (2002-02-14 12:04) [4]

To Fareder: В одном запросе не получается. Почему? Потому что каждая из упомянутых величин расчитывается по данным из разных таблиц. Вот, например, как получаются среднедневные остатки (СДО) :
1) Выполняем запрос:
select codeokpo, nulltozero(
(select incom+
nulltozero((select sum((credit-debit)*
(:LastDate - dtend + 1))/
(:LastDate - :FirstDate + 1)
from saldo s2
where dtend between :FirstDate and :LastDate and
idacc=s1.idacc and
currency=s1.currency))
from saldo s1
where s1.idacc=A.idacc and
s1.currency=A.currency and
dtend=(select min(dtend)
from saldo
where idacc=s1.idacc and
currency=s1.currency and
dtend>=:FirstDate ))) Amount
from accowner_account A
where A.currency=:UAH and
%SQLWhere
SQLWhere - это очень обширное условие, содержащее перечень счетов (их маски), задаваемых пользователем на клиенте.
2) Записываем результат выполнения этого запроса во временную таблицу Import.
3) Выполняем запрос:
select codeokpo, sum(Amount) SDO
from Import
group by 1

В результате получаем СДО в разрезе каждого клиента.
Если же вспомнить что таких величин 8, то просто непредставляется возможным засунуть эти расчеты в один запрос.


 
Hermit ©   (2002-02-14 12:08) [5]

To Vadim: О денормализации я знаю, но система уже работает около 2 лет в промышленной эксплуатации и добавление дополнительных таблиц и тригеров сейчас есть событием практически невозможным.


 
Fareader ©   (2002-02-14 12:09) [6]

А с какой СУБД ты работаешь?


 
Hermit ©   (2002-02-14 12:17) [7]

To wicked: Действительно речь идет о клиент-серверной среде - как источнике данных, т.е. база находиться на сервере Informix, но интересующие меня данные должны быть сохранены на локальной машине и впоследствии обрабатываться без участия сервера. (Данные с сервера забираются 1 раз в месяц). Полностью согласен с тем, что при выборке интересующих меня данных лучше всего нагрузку перенести на сервер и оттуда забирать уже сформированный набор в формате, который мне необходим. Но с учетом того, что каждая из величин расчитывается в сложных SQl запросах (смотри пример расчета СДО выше), как это зделать я пока не представляю.


 
Fareader ©   (2002-02-14 12:19) [8]

Я ддумаю можно увеличить скорость, если отказаться от вложенных запросов. Лучше использовать несколько простых запросов связывая их друг с другом Master/Detail. А это - изврат.



Страницы: 1 вся ветка

Текущий архив: 2002.03.14;
Скачать: CL | DM;

Наверх




Память: 0.49 MB
Время: 0.01 c
7-43191
muh
2001-12-10 13:00
2002.03.14
рассылка через DNS


3-42950
Ольга
2002-02-15 10:53
2002.03.14
открытие файла


1-43007
ev
2002-02-22 21:49
2002.03.14
Почему глючит определение размера файла


4-43216
otari
2002-01-11 21:27
2002.03.14
помогите !!! двучвопросних человеку


1-43097
Валентина
2002-02-26 10:36
2002.03.14
delphi