Моделирование и анализ данных
2023. Том 13. № 4. С. 59–83
doi:10.17759/mda.2023130404
ISSN: 2219-3758 / 2311-9454 (online)
Сравнительный анализ эффективности методов построения вполне интерпретируемых линейных регрессионных моделей
Аннотация
Ранее автору удалось свести задачу построения вполне интерпретируемой линейной регрессии, оцениваемой с помощью метода наименьших квадратов, к задаче частично-булевого линейного программирования. В таких моделях знаки оценок соответствуют содержательному смыслу факторов, абсолютные вклады переменных в общую детерминацию существенны, а степень мультиколлинеарности мала. Оптимальное решение сформулированной задачи также может быть найдено методом полного перебора регрессий. Цель статьи заключается в проведении сравнительного анализа эффективности этих двух подходов. Для проведения вычислительных экспериментов использовано 5 наборов реальных статистических данных различных объемов. В результате с помощью пакета LPSolve в разных условиях было решено более 550 различных частично-булевых задач. Параллельно оценена эффективность решения подобных им задач методом полного перебора в пакете Gretl. Во всех экспериментах предложенный нами метод оказался многократно эффективнее метода полного перебора. Самая высокая эффективность была достигнута при решении задач выбора оптимального числа регрессоров из 103 переменных, для решения каждой из которых методом перебора потребовалось бы оценить примерно 2103 (10,1 нониллиона) моделей, с чем обычный компьютер не справился бы и за 1000 лет. В LPSolve каждая из этих задач была решена за 32 – 191 секунду. Предложенным методом за приемлемое время удалось обработать выборку данных большого объема, содержащую 40 объясняющих переменных и 515345 наблюдений, что подтверждает независимость его эффективности от объема выборки. Выявлено, что ужесточение в линейных ограничениях задачи требований на мультиколлинеарность и абсолютные вклады переменных практически всегда снижает скорость её решения.
Общая информация
Ключевые слова: Линейная регрессия, метод наименьших квадратов, интерпретация, задача линейного программирования, метод, переменные, детерминанты, эффективность
Рубрика издания: Методы оптимизации
Тип материала: научная статья
DOI: https://doi.org/10.17759/mda.2023130404
Получена: 30.10.2023
Принята в печать:
Для цитаты: Базилевский М.П. Сравнительный анализ эффективности методов построения вполне интерпретируемых линейных регрессионных моделей // Моделирование и анализ данных. 2023. Том 13. № 4. С. 59–83. DOI: 10.17759/mda.2023130404
Полный текст
Введение
Процесс построения линейной регрессионной модели условно можно разделить на два этапа: 1) выбор структурной спецификации; 2) оценивание неизвестных параметров регрессии. Выбор структурной спецификации, т.е. математической формы связи между переменными, в линейной модели означает решение задачи отбора наиболее информативных регрессоров (ОИР) [1,2] из общего их числа на основе некоторого оптимизационного критерия. Точным методом, гарантирующим оптимальное решение задачи ОИР, считается метод полного перебора [1], алгоритм которого предполагает оценивание моделей-претендентов. Например, если , , то потребуется оценить 10272278170 моделей. Таким образом, метод полного перебора и самый трудоёмкий из всех методов решения задач ОИР. Если же число отбираемых регрессоров неизвестно, то трудоёмкость метода становится ещё больше, поскольку своей оценки при достаточном объеме выборки требуют уже моделей. Самым простым методом оценивания линейных регрессий является метод наименьших квадратов (МНК), в рамках которого разработано множество различных статистических тестов.
Для решения задач ОИР в линейных регрессиях (см., например, [3–11]) в настоящее время успешно применяется аппарат математического программирования, что гораздо эффективнее, чем использование переборных процедур. При этом также гарантируется оптимальность построенной модели. В зарубежной литературе задачи ОИР при использовании МНК принято в основном формулировать в виде задач частично-булевого квадратичного программирования (ЧБКП) [3], скорость решения которых зависит от объема выборки . Результаты анализа научных статей по данной тематике представлены в табл. 1, во втором столбце которой приводятся фамилии учёных и год исследования; в третьем – краткая характеристика решаемой задачи ОИР; в четвёртом – максимальный объем выборки nmax и максимальное число объясняющих переменных lmax , обработанных в результате исследования; в пятом – название решателя задачи математического программирования; в шестом – информация о системе, в которой проводились вычислительные эксперименты.
Таблица 1. Результаты анализа научных статей
№ |
Авторы (год) |
Особенность задачи |
(nmax, lmax) |
Решатель |
Оборудование |
1 |
Конно, Ямамото (2009) [3] |
ЧБКП, отбор m регрессоров, эвристический алгоритм |
(1000, 70) |
CPLEX 10.1 |
Xeon, 3.73 GHz |
2 |
Мияширо, Такано (2015) [4] |
ЧБКП, отбор регрессоров по критериям AIC, BIC и скорректированному коэффициенту детерминации |
(1933, 100) |
CPLEX |
Xeon |
3 |
Мияширо, Такано (2015) [5] |
ЧБКП, отбор регрессоров по критерию Меллоуза |
(1993, 100) |
CPLEX 12.5 |
Intel Xeon W5590, 3.33 GHz×2, 24 GB RAM |
4 |
Парк, Клабжан (2020) [6] |
ЧБКП, отбор регрессоров по разным критериям MAE, MSE и mRMR (минимальной избыточности и максимальной релевантности), итерационный эвристический алгоритм |
(506, 103) |
CPLEX |
Xeon, 2.8 GHz, 15 GB RAM |
5 |
Тамура и др. (2019) [7] |
ЧБКП, отбор регрессоров с контролем мультиколлинеарности по критерию VIF |
(1993, 100) |
CPLEX |
Intel Core i7-4770, 3.40 GHz, 8 GB RAM |
6 |
Тамура и др. (2017) [8] |
Полуопределенная ЧБКП, отбор регрессоров с контролем мультиколлинеарности по числу обусловленности корреляционной матрицы |
(1066, 65) |
Gurobi 5.6, SCIP-SDP-2.0.0 |
Intel Core2 Quad, 2.66 GHz, 4 GB RAM |
7 |
Бертсимас, Ли (2020) [9] |
ЧБКП, отбор значимых регрессоров с контролем мультиколлинеарности, holistic regression |
(9358, 125) |
Gurobi 8.0 |
i7-5820k 6-core CPU, 16 GB DRAM |
8 |
Чанг, Парк, Чонг (2020) [10] |
ЧБКП, regression diagnostics |
(1599, 124) |
Gurobi 9.0 |
Intel Core i7-8700 CPU, 3.40 GHz (8 CPUs), 32 GB RAM |
9 |
Такано, Мияширо (2020) [11] |
ЧБКП, отбор регрессоров в ридж-регрессии с помощью критерия кросс-валидации |
(100, 25) |
CPLEX 12.8 |
Intel Core i7-4790 MCU, 3.60 GHz, 16 GB |
По табл. 1 видно, что на сегодняшний день существует множество формулировок задач ОИР в терминах ЧБКП, позволяющих контролировать в процессе решения самые разные характеристики линейных регрессий – качество аппроксимации, мультиколлинеарность, значимость коэффициентов и пр. Также видно, что исследователи избегают решения задач большой размерности, когда объемы выборок более 10000 наблюдений, а число объясняющих переменных более 150 штук. При этом вычислительные эксперименты практически всегда проводятся с использованием дорогостоящих пакетов CPLEX и Gurobi на довольно мощных компьютерах.
В [12] автору удалось свести задачу ОИР в линейной регрессии, оцениваемой с помощью МНК, к задаче частично-булевого линейного программирования (ЧБЛП). Целевой функцией в ней выступает коэффициент детерминации, а количество линейных ограничений, в отличие от формулировок [3–11], не зависит об объема выборки . В дальнейшем формализованная задача дополнилась ограничениями на коэффициенты вздутия дисперсии VIF [13], на t-критерии Стьюдента [14] и пр. На данный момент в [15] приведена самая последняя формулировка задачи ЧБЛП, решение которой приводит к построению вполне интерпретируемой линейной регрессии с оптимальным по коэффициенту детерминации количеством регрессоров, в которой знаки МНК-оценок согласованы со знаками соответствующих коэффициентов корреляции с , абсолютные вклады переменных в общую детерминации не меньше заданного числа , а величины интеркорреляций по модулю не больше заданного числа . Тестирование сформулированной в [15] задачи на реальных выборках большого объема никогда ещё не проводилось.
Цель работы заключается в проведении на основе реальных данных различных объемов сравнительного анализа эффективности решения задачи построения вполне интерпретируемых линейных регрессий методом полного перебора и методом решения специальным образом сформулированной задачи ЧБЛП.
Задача ЧБЛП и программа для её автоматического формирования
Пусть в распоряжении исследователя имеется выборка данных объема для зависимой (объясняемой) переменной и независимых (объясняющих) переменных , , ..., . Составим матрицу коэффициентов интеркорреляций
,
и вектор корреляций объясняющих переменных с .
Сформулируем задачу ЧБЛП для ОИР в линейной регрессии так, как это сделано в [15]:
, (1)
, , (2)
, , (3)
, , (4)
, , (5)
, , (6)
, , (7)
где , , ..., – неизвестные параметры линейной регрессии в стандартизованном виде; – коэффициент детерминации; , , ..., – бинарные переменные, которые определяются по правилу
– большое положительное число; , – индексные подмножества, элементы которых удовлетворяют условиям и ; – абсолютный вклад -й переменной в общую детерминацию ; параметр – наименьшая величина абсолютных вкладов входящих в модель переменных; параметр – наибольшая величина коэффициентов интеркорреляций входящих в модель переменных.
Решение задачи ЧБЛП (1) – (7) приводит к построению линейной регрессии с оптимальным по критерию количеством объясняющих переменных, в которой , , вклады , , а интеркорреляции , , , где – множество номеров отобранных объясняющих переменных. Заметим, что в построенной регрессии некоторые коэффициенты могут оказаться незначимыми по t-критерию Стьюдента, либо может возникнуть мультиколлинеарность сразу между несколькими переменными. Избежать этого можно, дополнив задачу (1) – (7) линейными ограничениями из работ [13,14].
Как известно, эффективность решения задачи ЧБЛП (1) – (7) зависит от выбора большого положительного числа M: если оно слишком велико, то процесс решения может замедлиться, а если мало, то найденное решение может оказаться неоптимальным. Выбор границ параметра M для задачи (1) – (7) обсуждается в [16]. Сначала определяются параметры , для линейных ограничений (3) и (4) по формулам:
, , (8)
где – коэффициент детерминации регрессии, построенной со всеми объясняющими переменными. Для удобства можно всегда брать .
Затем находятся параметры , для линейных ограничений (2). Для этого нужно решить серию из задач линейного программирования при :
, (9)
, , (10)
, , (11)
. (12)
После чего аналогично для линейных ограничений (2) находятся параметры , . Для этого решается та же серия задач (9) – (12), но с целевыми функциями на максимум.
И, наконец, в задаче ЧБЛП (1) – (7) ограничения (2) – (4) нужно заменить на следующие:
, , (13)
, , (14)
, . (15)
Формировать задачу ЧБЛП (1), (5) – (7), (13) – (15) по реальной выборке данных для программы-решателя вручную не представляется возможным, особенно, если эта выборка большого объема. Для этого была разработана программа построения вполне интерпретируемых элементарных и неэлементарных квазилинейных регрессионных моделей (ВИнтер-2). Она позволяет в зависимости от выбранных пользователем начальных параметров автоматически формировать для решателя LPSolve IDE задачи ЧБЛП для построения различных, в частности, линейных, регрессионных моделей. Для формирования задачи (1), (5) – (7), (13) – (15) нужно выбрать: 1) число отбираемых регрессоров (при необходимости); 2) число знаков после запятой в действительных числах; 3) параметр ; 4) параметр . Выбор больших чисел M осуществляется автоматически. Сформированная задача представляет собой следующую последовательность блоков: 1) целевая функция (1); 2) левые части двойных неравенств (13); 3) правые части двойных неравенств (13); 4) левые и правые части двойных неравенств (14) и (15), содержащие бинарные переменные; 5) левые и правые части двойных неравенств (14) и (15), не содержащие бинарных переменных; 6) ограничения (6); 7) ограничения (7); 8) ограничения типа b12>=-Inf, указывающие на то, что переменные , , ..., могут быть не только неотрицательными, но и отрицательными; 9) ограничения типа d10<=1, указывающие верхние границы целочисленных переменных; 10) ограничение типа int d1,d2,d3, указывающее на бинарность целочисленных переменных.
Сформированную задачу нужно вручную открыть в решателе LPSolve, после запуска которого наблюдать за процессом её решения.
Описание данных и их предварительная обработка
Для проведения вычислительных экспериментов были использованы статистические данные, представленные в табл. 2. В третьем столбце указан объем выборки и количество объясняющих переменных . Как видно по табл. 2, в каждом наборе данных его объем превосходит число объясняющих переменных . Поэтому предварительно, чтобы убедиться в корректности данных, в пакете Gretl по каждому набору с помощью МНК оценивались модели множественной линейной регрессии. С наборами данных Data1, Data3 и Data5 проблем не возникло, были получены модели без совершенной коллинеарности с коэффициентами детерминации 0.620157, 0.737267 и 0.237001 соответственно.
При построении модели по набору Data2 была выявлена функциональная зависимость:
diffSeTime8 = SeTime6 - SeTime7 + 0.5SeTime8 - 0.5SeTime9 -0.5diffSeTime6,
приводящая к совершенной коллинеарности. При этом установлено, что переменные diffSeTime2 и diffSeTime8 содержат только 2 отличных от нуля значения (-0,001 и 0,001). Поэтому было принято решение исключить эти факторы. В результате осталось 38 объясняющих переменных. В оцененной по новому набору Data2* линейной регрессии нет совершенной коллинеарности, а её коэффициент детерминации составил 0,819211.
Таблица 2. Описание данных и их характеристики
№ |
Название (источник); описание; зависимые переменные |
(n, l) |
Распределение коэффициентов интеркорреляций |
Распределение коэффициентов корреляции с y |
1 |
Data1 (пакет Gretl, встроенный файл data7-20.gdt);
данные о зарплатах игроков НБА;
SALARY |
(56, 25) |
||
2 |
Data2 (сайт [17]);
данные об элеронах самолёта F16;
Goal |
(13750, 40) |
||
3 |
Data3 (сайт [18]);
данные о критической температуре сверх-проводников;
critical_temp |
(21263, 81) |
||
4 |
Data4 (сайт [19]);
данные о стоимостях строитель-ства и ценах продаж квартир в Иране;
V-9, V-10 |
(372, 103) |
||
5 |
Data5 (сайт [20]);
данные о годах выпуска песен;
year |
(515345, 90) |
Набор данных Data4 содержит две зависимых переменных – V-9 и V-10. Поэтому выборку с зависимой переменной V-9 будем называть Data4a, а с V-10 – Data4b. В модели, оцененной по набору Data4a, выявлена совершенная коллинеарность, поэтому Gretl автоматически исключил 29 переменных. Коэффициент детерминации итоговой модели составил 0,987584. Аналогично, по набору Data4b было исключено 29 факторов, а для итоговой регрессии . Для проведения вычислительных экспериментов было принято решение в наборах Data4a и Data4b оставить список из 103 переменных в полном составе.
Оценка скорости решения задач ОИР методом полного перебора
Получить решение задачи ЧБЛП (1), (5) – (7), (13) – (15) можно также тривиальным способом, организовав полный перебор всех возможных вариантов регрессионных моделей. Для того чтобы была возможность сравнивать эффективность двух этих подходов, требовалось найти статистическую зависимость скорости решения задач ОИР полным перебором от заданного числа регрессоров . Для этого был разработан специальный скрипт для пакета Gretl, реализующий процедуру отбора ровно регрессоров в линейной регрессии по следующему алгоритму:
- формируется матрица всех возможных комбинаций регрессоров, содержащая строк и столбцов;
- по выборке находятся корреляционные матрицы и ;
- с помощью матрицы комбинаций в цикле с помощью матриц и находятся стандартизованные оценки линейной регрессии и коэффициенты детерминации ;
- выбирается лучшая модель с наибольшей величиной .
С помощью этого скрипта на персональном компьютере c процессором Intel Core i5-4670 CPU (3.40 GHz) и объемом оперативной памяти 8 GB RAM было проведено два эксперимента – по набору данных Data3 и Data5. Число задавалось равным 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 20, 25, 30, 35, 36, 37, 40, 45, 50, 55, 58, 64, 70 (при задача решается практически мгновенно). Для каждого фиксировалось общее количество обработанных моделей и время решения задачи ОИР (без учёта времени формирования матрицы комбинаций) в секундах. В результате были найдены скорости (моделей/сек), как отношения общего числа моделей ко времени. Сразу было установлено, что при переходе с на в обоих экспериментах произошел солидный скачок скорости в сторону уменьшения. Поэтому было принято решение строить статистические зависимости отдельно при и при .
На рис. 1 синими точками указаны скорости, полученные при обработке выборки Data3, а оранжевыми – Data5. Как видно, эти скорости при равных практически не отличаются. Кроме того, зависимость от носит нелинейных характер.
(а) |
(б) |
Рис. 1. Зависимости скоростей от числа m
Для построения зависимостей в качестве объясняемой переменной была использована средняя скорость . С помощью МНК оценивалась степенная функция при и при . Коэффициенты детерминации оцененных моделей в прологарифмированном виде составили 0,9799 и 0,9856, что подтверждает их высокое качество. Итоговая зависимость средней скорости решения задач ОИР полным перебором (на конкретном персональном компьютере) имеет вид:
(16)
На рис. 1 черным цветом указаны расчетные по формуле (16) скорости, которые практически совпадают с фактическими.
Вычислительные эксперименты
Вычислительные эксперименты проводились на персональном компьютере c процессором Intel Core i5-4670 CPU (3.40 GHz) и объемом оперативной памяти 8 GB RAM. Решались задачи ЧБЛП (1), (5) – (7), (13) – (15) по наборам данных Data1, Data2*, Data3, Data4a, Data4b и Data5 в зависимости от заданных параметров и . Параметр для всех выборок задавался равным от 0,1 до 1 с шагом 0,1. Наименьшее значение параметра равно 0, а наибольшее выбиралось так, чтобы при и происходил отбор одного или двух регрессоров. Для формирования задач ЧБЛП была использована программа ВИнтер-2, точность действительных чисел – 12 знаков после запятой. Большие числа M в ограничениях (13) – (15) ВИнтер-2 определяет автоматически по формулам (8) при и как результат решения серий задач линейного программирования типа (9) – (12). Решателем задач ЧБЛП выступает пакет LPSolve IDE с настройками по умолчанию. Лимит времени на решение задачи составляет 1800 секунд (полчаса). Все эксперименты проводились в предположении, что знаки коэффициентов корреляции объясняющих переменных с согласуются с содержательным смыслом факторов.
Результаты вычислительных экспериментов по данным Data1 представлены в табл. 3.
Таблица 3. Результаты вычислительных экспериментов по набору данных Data1
r θ |
0,1 |
0,2 |
0,3 |
0,4 |
0,5 |
0,6 |
0,7 |
0,8 |
0,9 |
1 |
0 |
4 0,2653 0,476 |
5 0,2655 1,241 |
7 0,3106 2,791 |
8 0,3236 4,650 |
10 0,3899 5,601 |
10 0,3899 12,041 |
11 0,4124 10,716 |
11 0,4335 28,438 |
11 0,4335 35,705 |
14 0,4446 53,507 |
0,001 |
4 0,2653 0,505 |
4 0,2653 1,168 |
6 0,3097 2,467 |
7 0,3231 4,080 |
8 0,3869 5,119 |
8 0,3869 9,790 |
9 0,4118 10,741 |
9 0,4335 24,513 |
9 0,4335 33,431 |
11 0,4439 30,999 |
0,005 |
4 0,2653 0,466 |
4 0,2653 0,900 |
6 0,3097 1,632 |
6 0,3225 2,120 |
6 0,3819 2,604 |
6 0,3819 4,492 |
8 0,4116 4,580 |
8 0,4314 9,258 |
8 0,4314 12,051 |
8 0,4314 17,781 |
0,01 |
2 0,2495 0,400 |
2 0,2495 0,737 |
3 0,2925 1,220 |
4 0,3062 1,588 |
5 0,3807 1,919 |
5 0,3807 3,010 |
6 0,4044 3,189 |
7 0,4256 5,875 |
7 0,4256 7,675 |
7 0,4256 10,781 |
0,05 |
1 0,2416 0,239 |
1 0,2416 0,310 |
1 0,2416 0,607 |
1 0,2416 0,794 |
2 0,2674 0,910 |
2 0,2674 1,390 |
2 0,2674 1,511 |
2 0,2674 2,588 |
2 0,2674 3,284 |
2 0,2674 4,400 |
В табл.3 для каждой пары значений параметров и указано количество отобранных переменных , коэффициент детерминации найденной модели, время решения задачи в секундах. По этой таблице видно, что, во-первых, во всех 50 случаях получено оптимальное решение в установленный получасовой лимит. Во-вторых, больше всего времени (53,507 с) ушло на решение задачи при и (при полном отсутствии требований на вклады переменных и мультиколлинеарность), а меньше всего (0,239 с) – при и (при самых жестких требованиях на вклады переменных и мультиколлинеарность). В целом по табл. 3 можно наблюдать, что увеличение (ужесточение требования на вклады) и уменьшение (ужесточение требования на мультиколлинеарность) практически всегда снижает время решения задачи.
Решить любую задачу из табл. 3 можно методом полного перебора. Причём, при , 0.001, 0.005, 0.01 для этого пришлось бы оценить моделей. С помощью формулы (16) установлено, что на это потребовалось бы (без учёта времени на формирование матриц комбинаций и проверки условий) примерно 3206,46 с. Отсюда следует, что эффективность решения задач ОИР представленным способом в LPSolve оказалась в 59,9–8016,1 раз выше, чем методом полного перебора в Gretl. Поскольку значение для модели со всеми 25 переменными составляет 0,620157, то при максимальное число регрессоров , поэтому пришлось бы оценить только моделей, на что потребуется примерно 1232,81 с. В этом случае эффективность решения задач ОИР нашим методом оказалась в 280,2–5158,2 раз выше, чем методом полного перебора.
Результаты вычислительных экспериментов по данным Data2* представлены в табл. 4.
Таблица 4. Результаты вычислительных экспериментов по набору данных Data2*
r θ |
0,1 |
0,2 |
0,3 |
0,4 |
0,5 |
0,6 |
0,7 |
0,8 |
0,9 |
1 |
0 |
5 0,5893 12,863 |
9 0,6996 33,198 |
13 0,7159 72,437 |
11 0,8129 103,799 |
11 0,8129 149,199 |
14 0,8129 150,915 |
15 0,8147 204,339 |
15 0,8147 248,128 |
15 0,8147 247,745 |
18 0,8148 365,958 |
0,0005 |
3 0,5887 8,019 |
7 0,6995 17,779 |
10 0,7154 29,021 |
6 0,8128 40,145 |
6 0,8128 53,399 |
7 0,8128 55,803 |
7 0,8143 73,818 |
7 0,8143 80,246 |
7 0,8143 79,919 |
11 0,8145 88,751 |
0,001 |
3 0,5887 6,959 |
5 0,6970 15,336 |
8 0,7127 22,617 |
5 0,8122 31,016 |
5 0,8122 41,017 |
6 0,8123 43,394 |
7 0,8139 56,285 |
7 0,8139 60,167 |
7 0,8139 59,634 |
8 0,8142 57,594 |
0,01 |
2 0,5857 5,513 |
4 0,6956 8,093 |
4 0,6956 9,199 |
4 0,8104 10,514 |
4 0,8104 15,558 |
4 0,8104 16,499 |
4 0,8104 18,942 |
4 0,8104 19,330 |
4 0,8104 19,161 |
6 0,8107 21,441 |
0,05 |
2 0,5857 1,982 |
3 0,6435 2,840 |
3 0,6435 2,758 |
3 0,7514 3,836 |
3 0,7514 5,242 |
3 0,7514 5,455 |
3 0,7514 5,508 |
3 0,7514 5,509 |
3 0,7514 5,418 |
5 0,7518 5,257 |
Как видно, снова во всех 50 случаях получено оптимальное решение в установленный получасовой лимит. И вновь в большинстве случаев чем выше и ниже , тем меньше время решения задачи. Больше всего времени (365,958 с) ушло на решение задачи при и , а меньше всего (1,982 с) – при и . Замечено, что, например, при с ростом число отобранных регрессоров может убывать.
При , 0.0005, 0.001, 0.01 методом перебора пришлось бы оценить (275 миллиардов) моделей, на что потребовалось бы примерно 48138036,2 с или 557 суток непрерывной работы компьютера. Таким образом, эффективность решения задач ОИР представленным способом в LPSolve оказалась в 131540–8731732 раз выше, чем методом полного перебора в Gretl. При максимальное число регрессоров , поэтому пришлось бы оценить моделей, на что потребуется примерно 6903730,63 с. В этом случае эффективность решения задач ОИР нашим методом в 1253173–3483214 раз выше, чем методом полного перебора.
Вычислительные эксперименты по набору данных Data3 проводились в четырех разных условиях: 1) прямой порядок объясняющих переменных от 1 до 81; 2) обратный порядок объясняющих переменных от 81 до 1; 3) обратный порядок объясняющих переменных и задача ЧБЛП (1) – (7) с параметрами M=50; 4) обратный порядок объясняющих переменных, задача ЧБЛП (1) – (7) с параметрами M=50 и дополнительными ограничениями на :
, , (17)
где – нижняя граница коэффициента детерминации. Это значение всегда можно брать равным максимальному из коэффициентов детерминации однофакторных линейных регрессий. В данном случае в условиях №4 таблица результатов формировалась построчно слева направо, начиная с нижнего левого угла ( , ). При этом значение для активных и выбиралось равным максимальному из коэффициентов детерминации моделей, полученных на предыдущих шагах при и . Точность величины составляла 6 знаков после запятой.
Результаты вычислительных экспериментов по данным Data3 представлены в табл. 5.
Таблица 5. Результаты вычислительных экспериментов по набору данных Data3
r θ |
0,1 |
0,2 |
0,3 |
0,4 |
0,5 |
0,6 |
0,7 |
0,8 |
0,9 |
1 |
Условия №1. Прямой порядок переменных |
||||||||||
0 |
2 0,5397 197,767 |
4 0,5666 1621,51 |
8 0,5994 1800 |
11 0,6165 1800 |
13 0,6554 1800 |
14 0,6453 1800 |
17 0,6446 1800 |
19 0,6437 1800 |
22 0,6185 1800 |
– – 1800 |
0,01 |
2 0,5397 201,172 |
5 0,5665 1273,26 |
6 0,5894 1800 |
9 0,6022 1800 |
9 0,6022 1800 |
11 0,5787 1800 |
13 0,6184 1800 |
15 0,6121 1800 |
15 0,6121 1800 |
16 0,6314 1800 |
0,05 |
1 0,5202 133,713 |
1 0,5202 502,107 |
5 0,5817 1268,24 |
4 0,5881 1800 |
7 0,5376 1800 |
– – 1800 |
– – 1800 |
– – 1800 |
– – 1800 |
– – 1800 |
0,07 |
1 0,5202 110,147 |
1 0,5202 332,869 |
2 0,5582 631,762 |
5 0,5749 1103,64 |
4 0,6113 1467,54 |
4 0,6119 1704,19 |
4 0,6119 1800 |
4 0,6119 1800 |
4 0,6119 1800 |
4 0,6119 1800 |
0,10 |
1 0,5202 80,43 |
1 0,5202 175,849 |
1 0,5202 304,19 |
1 0,5202 454,936 |
3 0,5835 574,821 |
4 0,5983 617,37 |
4 0,5983 629,754 |
4 0,5983 618,929 |
4 0,5983 728,914 |
4 0,5983 655,219 |
Условия №2. Обратный порядок переменных |
||||||||||
0 |
2 0,5397 188,246 |
4 0,5666 1679,87 |
8 0,5994 1800 |
12 0,6176 1800 |
13 0,6552 1800 |
14 0,6392 1800 |
18 0,6367 1800 |
– – 1800 |
– – 1800 |
– – 1800 |
0,01 |
2 0,5397 167,225 |
5 0,5665 1209,17 |
5 0,5948 1800 |
9 0,6297 1800 |
11 0,6180 1800 |
12 0,6341 1800 |
14 0,6420 1800 |
14 0,6420 1800 |
– – 1800 |
– – 1800 |
0,05 |
1 0,5202 93,31 |
1 0,5202 385,996 |
5 0,5817 666,43 |
4 0,5881 878,796 |
5 0,6160 826,987 |
5 0,6273 715,434 |
7 0,6393 677,096 |
7 0,6393 695,793 |
7 0,6393 878,9 |
7 0,6393 903,362 |
0,07 |
1 0,5202 81,226 |
1 0,5202 241,379 |
2 0,5582 431,757 |
5 0,5749 457,4 |
4 0,6113 407,74 |
4 0,6119 393,263 |
4 0,6119 384,443 |
4 0,6119 396,190 |
4 0,6119 434,534 |
4 0,6119 443,542 |
0,10 |
1 0,5202 59,355 |
1 0,5202 174,296 |
1 0,5202 269,955 |
1 0,5202 267,461 |
3 0,5835 223,619 |
4 0,5983 203,14 |
4 0,5983 192,821 |
4 0,5983 198,769 |
4 0,5983 216,876 |
4 0,5983 211,203 |
Условия №3. Обратный порядок переменных, M=50 |
||||||||||
0 |
2 0,5397 122,945 |
4 0,5666 1350,71 |
8 0,5994 1800 |
12 0,6176 1800 |
12 0,6199 1800 |
14 0,6392 1800 |
18 0,6430 1800 |
– – 1800 |
– – 1800 |
16 0,5957 1800 |
0,01 |
2 0,5397 97,617 |
5 0,5665 884,315 |
5 0,5948 1800 |
9 0,6297 1800 |
11 0,6180 1800 |
12 0,6341 1800 |
14 0,6420 1800 |
14 0,6420 1800 |
– – 1800 |
– – 1800 |
0,05 |
1 0,5202 58,057 |
1 0,5202 262,76 |
5 0,5817 401,332 |
4 0,5881 575,673 |
5 0,6160 586,709 |
5 0,6273 471,719 |
7 0,6393 430,101 |
7 0,6393 432,044 |
7 0,6393 534,787 |
7 0,6393 522,983 |
0,07 |
1 0,5202 51,048 |
1 0,5202 159,867 |
2 0,5582 287,328 |
5 0,5749 354,384 |
4 0,6113 372,046 |
4 0,6119 355,241 |
4 0,6119 324,892 |
4 0,6119 318,005 |
4 0,6119 332,508 |
4 0,6119 346,67 |
0,10 |
1 0,5202 44,343 |
1 0,5202 133,396 |
1 0,5202 224,789 |
1 0,5202 283,247 |
3 0,5835 294,821 |
4 0,5983 260,734 |
4 0,5983 249,054 |
4 0,5983 247,104 |
4 0,5983 276,976 |
4 0,5983 271,1 |
Условия №4. Обратный порядок переменных, M=50, доп. ограничения на R2 |
||||||||||
0 |
2 0,539710 108,714 |
4 0,566696 772,040 |
8 0,599489 1800 |
– – 1800 |
13 0,655216 1800 |
– – 1800 |
18 0,662074 1800 |
18 0,662192 1800 |
16 0,666679 1800 |
– – 1800 |
0,01 |
2 0,539710 99,664 |
5 0,566547 1085,624 |
6 0,589429 1800 |
9 0,629783 1800 |
10 0,650646 1800 |
11 0,654328 1800 |
12 0,655761 1800 |
12 0,655761 1800 |
11 0,659170 1800 |
– – 1800 |
0,05 |
1 0,520231 54,256 |
1 0,520231 249,392 |
5 0,581710 335,111 |
4 0,588120 462,939 |
5 0,616071 358,06 |
5 0,627385 318,455 |
7 0,639385 288,019 |
7 0,639385 1800 |
7 0,639385 1800 |
7 0,639385 1800 |
0,07 |
1 0,520231 40,110 |
1 0,520231 112,673 |
2 0,558250 118,839 |
5 0,574943 185,496 |
4 0,611381 123,995 |
4 0,611953 107,23 |
4 0,611953 132,089 |
4 0,611953 125,089 |
4 0,611953 150,584 |
4 0,611953 144,08 |
0,10 |
1 0,520231 26,751 |
1 0,520231 48,796 |
1 0,520231 60,380 |
1 0,520231 71,449 |
3 0,583520 35,280 |
4 0,598350 35,910 |
4 0,598350 32,866 |
4 0,598350 30,728 |
4 0,598350 31,091 |
4 0,598350 30,568 |
В табл. 5 для наглядности серым цветом выделены ячейки, для которых за полчаса либо не доказана оптимальность решения задачи, либо вообще не получено решение. Для сравнения результатов вычислительных экспериментов, проведенных в четырех условиях, была составлена табл. 6. Во втором её столбце для каждого условия указан процент оптимальных решений 50 задач, в третьем – процент задач без решения в установленный лимит времени, в четвертом – общее время решения 50-ти задач, в пятом – среднее время поиска оптимального решения, в шестом – среднее значение для моделей с доказанной и не доказанной оптимальностью.
Таблица 6. Показатели эффективности решенных по данным Data3 задач в зависимости от условий
Условие |
Оптимальные решения, % |
Решения без результата за 30 мин, % |
Общее время решения 50-ти задач, с |
Среднее время на поиск оптимального решения, с |
Среднее качество моделей по R2 |
1 |
46 |
12 |
63988,33 |
669,95 |
0,584779 |
2 |
68 |
10 |
44455,58 |
460,45 |
0,591822 |
3 |
68 |
8 |
40719,31 |
350,56 |
0,591276 |
4 |
62 |
8 |
39976,28 |
186,33 |
0,597076 |
По табл. 6 можно сделать следующие выводы.
- Порядок следования объясняющих переменных в исходной выборке может существенно влиять на скорость решения задачи ЧБЛП. Оказалось, что изменение порядка следования переменных с прямого (от 1 до 81) на обратный (от 81 до 1) увеличило процент оптимальных решений на 22%, снизило процент решений без результата на 2%, уменьшило общее время решения 50-ти задач на 19533 с (примерно на 5,5 часов) и среднее время на поиск оптимального решения на 209,5 с, а также увеличило среднее качество моделей по R2 на 0,007043.
- На скорость решения задачи ЧБЛП могут существенно влиять выбранные значения больших чисел . Получилось, что по выборке с обратным порядком следования переменных изменение в задаче (1), (5) – (7), (13) – (15) всех больших чисел на уменьшило процент решений без результата на 2%, общее время решения 50-ти задач на 3736,27 с, среднее время на поиск оптимального решения на 109,89. При этом процент оптимальных решений не изменился, а среднее качество моделей по R2 снизилось на 0,000546.
- Внедрение ограничений (17) может существенно влиять на скорость решения задачи ЧБЛП. Последовательное проведение экспериментов в условиях №4 оказалось самым эффективным. По сравнению с экспериментами в условиях №3 уменьшилось общее время решения 50-ти задач на 743,03 с, среднее время на поиск оптимального решения на 164,23 с, увеличилось среднее качество моделей по R2 на 0,0058. Процент решений без результата не изменился, а процент оптимальных решений снизился на 6% из-за задач при , .
Для сравнения с методом перебора была взяты результаты вычислительных экспериментов (только оптимальные решения), полученные в условиях №3. Тут снова прослеживается снижение времени решения задач при больших и малых .
При методом перебора пришлось бы оценить (2,4 септиллиона) моделей примерно за с; при – примерно то же самое; при – (2,3 квадриллиона) моделей примерно за с (7853 года); при – (2,1 триллионов) моделей примерно за 144911622 с (4,6 лет); при – (3,8 миллиарда) моделей примерно за 151981 с (42,2 часов).
Таким образом, эффективность решения задач ОИР нашим методом в LPSolve при в – раз, при в – раз, при в 420992349 – 4254439602 раз, при в 389499,2 – 2838732,6 раз, при в 515,5 – 3427,4 раз выше, чем методом полного перебора в Gretl. Подтверждают эффективность и дополнительные эксперименты при и . Эти задачи были решены за 3278,48 с, 7383,34 с, 11866,6 с и 12386,7 с соответственно. Количества отобранных переменных и коэффициенты детерминации построенных моделей оказались следующие: (5, 0.5948), (9, 0.6297), (10, 0.6520) и (11, 0.6543).
Вычислительные эксперименты по набору данных Data4a проводились в двух разных условиях: 1) без ограничений на R2; 2) с ограничениями (17) на R2, . Результаты представлены в табл. 7.
Таблица 7. Результаты вычислительных экспериментов по набору данных Data4a
r θ |
0,1 |
0,2 |
0,3 |
0,4 |
0,5 |
0,6 |
0,7 |
0,8 |
0,9 |
1 |
Условия №1a. Без ограничений на R2 |
||||||||||
0 |
3 0,9586 254,802 |
6 0,9590 1044,10 |
7 0,9613 284,86 |
9 0,9621 363,74 |
10 0,9636 534,326 |
10 0,96412 450,241 |
10 0,96412 753,755 |
11 0,96416 727,38 |
11 0,96416 903,586 |
11 0,96416 771,539 |
0,005 |
2 0,9586 204,809 |
2 0,9586 1574,24 |
4 0,9609 545,858 |
6 0,9615 960,526 |
9 0,9634 1477,09 |
10 0,5124 1800 |
13 0,5194 1800 |
14 0,5188 1800 |
14 0,5188 1800 |
14 0,5188 1800 |
0,007 |
2 0,9586 190,126 |
2 0,9586 1189,97 |
3 0,9605 810,467 |
3 0,9605 1375,36 |
9 0,6942 1800 |
10 0,6982 1800 |
12 0,7092 1800 |
11 0,7128 1800 |
14 0,7133 1800 |
15 0,7134 1800 |
0,01 |
2 0,9586 167,112 |
2 0,9586 868,475 |
2 0,9586 968,963 |
2 0,9586 1557,69 |
10 0,6981 1800 |
9 0,6965 1800 |
10 0,7090 1800 |
11 0,6836 1800 |
12 0,7131 1800 |
13 0,7132 1800 |
0,015 |
1 0,9534 174,815 |
1 0,9534 554,243 |
1 0,9534 788,331 |
1 0,9534 1169,25 |
4 0,9564 1423,2 |
8 0,6822 1800 |
8 0,7031 1800 |
12 0,6817 1800 |
10 0,6743 1800 |
8 0,5689 1800 |
Условия №2a. С ограничениями на R2 |
||||||||||
0 |
3 0,9586 31,949 |
6 0,9590 47,057 |
7 0,9613 73,006 |
9 0,9621 101,18 |
10 0,9636 160,98 |
10 0,96412 160,675 |
10 0,96412 191,21 |
11 0,96416 173,251 |
11 0,96416 165,566 |
11 0,96416 117,857 |
0,005 |
2 0,9586 58,102 |
2 0,9586 83,709 |
4 0,9609 106,131 |
6 0,9615 115,674 |
9 0,9634 108,645 |
8 0,9638 108,432 |
8 0,9638 115,711 |
9 0,9638 103,331 |
9 0,9638 94,869 |
9 0,9638 64,817 |
0,007 |
2 0,9586 55,209 |
2 0,9586 76,711 |
3 0,9605 89,198 |
3 0,9605 101,247 |
8 0,9632 90,868 |
7 0,9635 90,318 |
8 0,9636 91,7 |
8 0,9636 79,838 |
8 0,9636 71,328 |
8 0,9636 48,881 |
0,01 |
2 0,9586 46,585 |
2 0,9586 66,94 |
2 0,9586 75,757 |
2 0,9586 83,938 |
6 0,9620 75,291 |
6 0,9632 76,675 |
6 0,9633 77,701 |
6 0,9633 67,239 |
6 0,9633 59,494 |
6 0,9633 40,978 |
0,015 |
1 0,9534 38,231 |
1 0,9534 57,707 |
1 0,9534 70,649 |
1 0,9534 88,668 |
4 0,9564 70,492 |
5 0,9584 68,855 |
5 0,9584 69,151 |
5 0,9584 59,99 |
5 0,9584 52,417 |
5 0,9584 35,984 |
По табл. 7 видно, что в обоих условиях процент решений без результата составляет 0%. Оказалось, что введение ограничений на R2 увеличило процент оптимальных решений с 56% до 100%, снизило общее время решения 50-ти задач с 61688,85 с до 4260,19 с (примерно в 14,5 раз) и среднее время на поиск оптимального решения с 788,88 с до 85,2 с (примерно в 9,2 раза), увеличило среднее качество моделей по R2 c 0,824478 до 0,960828.
Для сравнения с методом перебора была взяты результаты вычислительных экспериментов, полученные в условиях №2a. Снова прослеживается снижение времени решения задач при больших и малых . Но в этот раз оно менее выраженное.
При методом перебора пришлось бы оценить (10,1 нониллиона) моделей примерно за с (без учёта времени на формирование матриц комбинаций и проверки условий); при – примерно то же самое.
Таким образом, эффективность решения задач ОИР нашим методом в LPSolve в – раз выше, чем методом полного перебора в Gretl.
Вычислительные эксперименты по набору данных Data4b проводились в двух разных условиях: 1) без ограничений на R2; 2) с ограничениями (17) на R2, параметр , значение с шестью знаками после запятой выбиралось так же, как при экспериментировании по выборке Data3 при условиях №4. Результаты представлены в табл. 8.
Таблица 8. Результаты вычислительных экспериментов по набору данных Data4b
r θ |
0,1 |
0,2 |
0,3 |
0,4 |
0,5 |
0,6 |
0,7 |
0,8 |
0,9 |
1 |
Условия №1b. Без ограничений на R2 |
||||||||||
0 |
1 0,9279 476,549 |
4 0,9579 1456,01 |
6 0,9589 1800 |
9 0,9606 1800 |
10 0,9615 1800 |
8 0,9630 1800 |
11 0,9660 1800 |
13 0,9665 1800 |
14 0,9665 1800 |
19 0,9666 1800 |
0,01 |
1 0,9279 407,725 |
2 0,9576 1223,05 |
4 0,8503 1800 |
9 0,8445 1800 |
10 0,8418 1800 |
9 0,8834 1800 |
13 0,8891 1800 |
10 0,8883 1800 |
12 0,8908 1800 |
15 0,8932 1800 |
0,02 |
1 0,9279 262,429 |
2 0,9576 925,852 |
2 0,9576 1732,88 |
10 0,8666 1800 |
10 0,8636 1800 |
10 0,9060 1800 |
11 0,9072 1800 |
10 0,8507 1800 |
10 0,8519 1800 |
11 0,8524 1800 |
0,03 |
1 0,9279 244,271 |
2 0,9576 761,42 |
2 0,9576 1260,54 |
2 0,9576 1800 |
9 0,8738 1800 |
9 0,9089 1800 |
8 0,8958 1800 |
8 0,8900 1800 |
7 0,7390 1800 |
8 0,7099 1800 |
0,04 |
1 0,9279 204,977 |
2 0,9576 496,809 |
2 0,9576 762,148 |
2 0,9576 1033,84 |
2 0,9576 1446,00 |
2 0,9576 1384,48 |
9 0,9152 1800 |
9 0,8881 1800 |
9 0,8881 1800 |
8 0,8878 1800 |
Условия №2b. M=60, с ограничениями на R2 |
||||||||||
0 |
1 0,927989 46,401 |
4 0,957929 1800 |
6 0,958979 1800 |
9 0,960627 1800 |
10 0,961561 1800 |
– – 1800 |
11 0,967157 1800 |
13 0,967616 1800 |
– – 1800 |
19 0,967702 1800 |
0,01 |
1 0,927989 52,337 |
2 0,957639 98,446 |
2 0,957639 234,152 |
3 0,958815 262,537 |
7 0,960867 265,578 |
8 0,963793 281,362 |
8 0,966249 526,623 |
10 0,967416 947,019 |
10 0,967416 1033,387 |
12 0,967487 759,165 |
0,02 |
1 0,927989 36,52 |
2 0,957639 69,071 |
2 0,957639 100,474 |
2 0,957639 123,127 |
2 0,957639 122,061 |
4 0,960368 116,364 |
6 0,964694 183,657 |
7 0,966500 164,036 |
7 0,966500 145,346 |
8 0,966540 110,548 |
0,03 |
1 0,927989 31,049 |
2 0,957639 54,54 |
2 0,957639 71,537 |
2 0,957639 84,363 |
2 0,957639 81,779 |
4 0,959505 83,223 |
4 0,961506 128,814 |
4 0,961806 123,908 |
4 0,961806 105,228 |
4 0,961806 76,214 |
0,04 |
1 0,927989 25,434 |
2 0,957639 46,274 |
2 0,957639 52,513 |
2 0,957639 62,761 |
2 0,957639 66,221 |
2 0,957639 72,432 |
3 0,961018 97,052 |
3 0,961018 85,535 |
3 0,961018 77,604 |
3 0,961018 55,490 |
По табл. 8 было установлено, что в условиях №2b процент решений без результата увеличился с 0% до 4%, процент оптимальных решений увеличился с 32% до 82%, общее время решения 50-ти задач уменьшилось с 75279 с до 23360,2 с, среднее время на поиск оптимального решения уменьшилось с 879,9 с до 174,6 с, среднее качество моделей по R2 увеличилось с 0,91034 до 0,957776.
Для сравнения с методом перебора была взяты результаты вычислительных экспериментов, полученные в условиях №2b. Судить о влиянии и на время решения задач не правомерно, поскольку все они были решены при разных .
При методом перебора пришлось бы оценить моделей примерно за с; при – примерно то же самое; при – (0,777 октиллиона) моделей примерно за с; при – (0,252 септиллиона) моделей примерно за с.
Таким образом, эффективность решения задач ОИР нашим методом в LPSolve при в – раз, при в – раз, при в – раз выше, чем методом полного перебора в Gretl.
Вычислительные эксперименты по самому крупному набору данных Data5 предварительно проводились по ненулевым значениям и низким значениям . В установленные получасовые лимиты были получены следующие результаты: 1) при и отобрано 3 регрессора, , оптимальность не доказана; 2) при и нет результата; 3) при и отобрано 2 регрессора, , оптимальность не доказана; 4) при и нет результата.
Таким образом, установленного получасового лимита оказалось недостаточно для решения задач по выборке Data5. Тем не менее, в некоторых случаях довольно быстро получаются близкие к оптимальным, а, возможно, и оптимальные, решения.
Далее было принято решение упорядочить объясняющие переменные по убыванию модулей их коэффициентов корреляции с и из первых 40 факторов сформировать новую выборку Data5*. Для линейной регрессии со всеми 40 переменными . Результаты вычислительных экспериментов по набору данных Data5* представлены в табл. 9.
Таблица 9. Результаты вычислительных экспериментов по набору данных Data5
r θ |
0,1 |
0,2 |
0,3 |
0,4 |
0,5 |
0,6 |
0,7 |
0,8 |
0,9 |
1 |
0 |
8 0,0729 52,382 |
17 0,1001 1335,40 |
19 0,1359 1800 |
19 0,1482 1800 |
20 0,1690 1800 |
20 0,1691 1800 |
20 0,1691 1800 |
20 0,1691 1800 |
21 0,1694 1800 |
21 0,1694 1800 |
0,0025 |
6 0,0708 38,411 |
12 0,0990 564,321 |
13 0,1328 1493,81 |
14 0,1465 1761,19 |
12 0,1663 1417,78 |
12 0,1663 1635,9 |
12 0,1663 1655,63 |
12 0,1663 1663,39 |
12 0,1663 1681,36 |
12 0,1663 1661,53 |
0,005 |
4 0,0654 26,289 |
9 0,0918 214,816 |
7 0,1233 432,443 |
8 0,1363 595,44 |
7 0,1566 609,035 |
7 0,1566 667,344 |
7 0,1566 672,059 |
7 0,1566 695,564 |
7 0,1566 671,565 |
7 0,1566 670,639 |
0,0075 |
3 0,0600 22,405 |
4 0,0717 150,41 |
4 0,1073 286,088 |
5 0,1166 440,173 |
5 0,1493 440,781 |
5 0,1493 484,955 |
5 0,1493 487,463 |
5 0,1493 504,33 |
5 0,1493 483,014 |
5 0,1493 503,118 |
0,01 |
2 0,0525 21,002 |
3 0,0665 128,272 |
3 0,1032 239,305 |
4 0,1103 350,11 |
4 0,1394 358,752 |
4 0,1394 397,330 |
4 0,1394 396,758 |
4 0,1394 404,456 |
4 0,1394 397,752 |
4 0,1394 397,8 |
По табл. 9 можно сделать вывод, что оптимальных решений – 84%, решений без результата – 0%, общее время решения 50-ти задач – 41510 с, среднее время на поиск оптимального решения – 645,5 с, среднее качество моделей по R2 – 0,1339. Значения в табл. 9 подтверждают, что с ростом и уменьшением скорость решения задач практически всегда возрастает.
При методом перебора пришлось бы оценить моделей примерно за 207409219 с (6,57 лет); при – примерно то же самое; при – моделей примерно за 168933865 с (5,35 лет); при – моделей примерно за 31076852 с (1 год).
Таким образом, эффективность решения задач ОИР нашим методом в LPSolve при в 117766 – 7889582 раз, при в 334967 – 7540007 раз, при в 76836 – 1479709 раз выше, чем методом полного перебора в Gretl.
Заключение
Подчеркнем основные результаты, полученные в данной работе.
- Экспериментально доказано, что построение вполне интерпретируемой линейной регрессии предложенным методом, состоящим в решении задачи ЧБЛП (1), (5) – (7), (13) – (15), многократно эффективнее метода полного перебора. Для набора данных Data1 наш подход оказался эффективнее в 59,9 – 8016,1 раз; для Data2* – в 131540 – 8731732 раз; для Data3 – в 515,5 – раз; для Data4a – в – раз; для Data4b – в – раз; для Data5* – в 76836 – 7889582 раз.
- Среди полученных за получасовой промежуток времени 550-ти решений, представленных в табл. 3, 4, 5, 7, 8, 9, оптимальных оказалось 399 (72,6%), обычных – 130 (23,6%), отсутствующих – 21 (3,8%). Таким образом, за приемлемое время в большинстве случаев были найдены оптимальные или близкие к ним решения.
- Эффективность предложенного метода не зависит от объема выборки , поэтому удалось обработать набор данных Data5*, содержащий 40 объясняющих переменных и 515345 наблюдений. Так, например, в работах [3-11] зарубежных авторов максимальный объем выборки для решения подобных задач составил всего 9358 наблюдений, т.е. примерно в 55 раз меньше.
- Замечено, что выбор параметров и может существенно влиять на скорость решения задачи ЧБЛП. Причём, с увеличением (ужесточение требований на вклады переменных) и уменьшением (ужесточение требований на мультиколлинеарность) время решения задачи в большинстве случаев снижается, т.е. вполне интерпретируемая линейная регрессия строится быстрее, чем реализуется обычный ОИР без ограничений на и .
- Установлено, что на эффективность решения задачи ЧБЛП может существенно влиять порядок следования объясняющих переменных в выборке, параметр M, а также дополнительные ограничения (17) на коэффициент детерминации. Механизм влияния этих и других параметров на скорость решения задачи ЧБЛП требует дальнейших исследований.
Литература
- Стрижов В.В., Крымова Е.А. Методы выбора регрессионных моделей. М.: Вычислительный центр им. А.А. Дородницына РАН, 2010. 60 с.
- Miller A. Subset selection in regression. CRC Press, 2002.
- Konno H., Yamamoto R. Choosing the best set of variables in regression analysis using integer programming // Journal of Global Optimization. 2009. Vol. 44. P. 273–282. DOI:10.1007/s10898-008-9323-9.
- Miyashiro R., Takano Y. Mixed integer second-order cone programming formulations for variable selection in linear regression // European Journal of Operational Research. 2015. Vol. 247. P. 721–731. DOI:10.1016/j.ejor.2015.06.081.
- Miyashiro R., Takano Y. Subset selection by Mallows’ Cp: A mixed integer programming approach // Expert Systems with Applications. 2015. Vol. 42. P. 325–331. DOI:10.1016/j. eswa.2014.07.056.
- Park Y.W., Klabjan D. Subset selection for multiple linear regression via optimization // Journal of Global Optimization. 2020. Vol. 77. P. 543–574. DOI:10.1007/s10898-020-00876-1.
- Tamura R., Kobayashi K., Takano Y., Miyashiro R., Nakata K., Matsui T. Mixed integer quadratic optimization formulations for eliminating multicollinearity based on variance inflation factor // Journal of Global Optimization. 2019. Vol. 73. P. 431–446. DOI:10.1007/s10898-018-0713-3.
- Tamura R., Kobayashi K., Takano Y., Miyashiro R., Nakata K., Matsui T. Best subset selection for eliminating multicollinearity // Journal of the Operations Research Society of Japan. 2017. Vol. 60(3). P. 321–336. DOI:10.15807/jorsj.60.321.
- Bertsimas D., Li M.L. Scalable holistic linear regression // Operations Research Letters. 2020. Vol. 48, Is. 3. P. 203–208. DOI:10.1016/j.orl.2020.02.008.
- Chung S., Park Y.W., Cheong T. A mathematical programming approach for integrated multiple linear regression subset selection and validation // Pattern Recognition. 2020. Vol. 108. DOI:10.1016/j.patcog.2020.107565.
- Takano Y., Miyashiro R. Best subset selection via cross-validation criterion. Top. 2020. Vol. 28, Is. 2. P. 475–488. DOI: 10.1007/s11750-020-00538-1.
- Базилевский М.П. Сведение задачи отбора информативных регрессоров при оценивании линейной регрессионной модели по методу наименьших квадратов к задаче частично-булевого линейного программирования // Моделирование, оптимизация и информационные технологии. 2018. Т. 6. № 1 (20). С. 108-117.
- Базилевский М.П. Отбор информативных регрессоров с учётом мультиколлинеарности между ними в регрессионных моделях как задача частично-булевого линейного программирования // Моделирование, оптимизация и информационные технологии. 2018. Т. 6. № 2 (21). С. 104-118.
- Базилевский М.П. Отбор значимых по критерию Стьюдента информативных регрессоров в оцениваемых с помощью МНК регрессионных моделях как задача частично-булевого линейного программирования // Вестник Воронежского государственного университета. Серия: Системный анализ и информационные технологии. 2021. № 3. С. 5-16.
- Базилевский М.П. Формализация процесса отбора информативных регрессоров в линейной регрессии в виде задачи частично-булевого линейного программирования с ограничениями на коэффициенты интеркорреляций // Современные наукоёмкие технологии. 2023. № 8. С. 10-14.
- Базилевский М.П. Способ определения параметра M в задаче частично-булевого линейного программирования для отбора регрессоров в линейной регрессии // Вестник Технологического университета. 2022. Т. 25. № 2. С. 62-66.
- Knowledge Extraction based on Evolutionary Learning [Электронный ресурс]. – Режим доступа: https://sci2s.ugr.es/keel/dataset.php?cod=93 (дата обращения 04.10.2023).
- UCI Machine Learning Repository [Электронный ресурс]. – Режим доступа: https://archive.ics.uci.edu/dataset/464/superconductivty+data (дата обращения 04.10.2023).
- UCI Machine Learning Repository [Электронный ресурс]. – Режим доступа: https://archive.ics.uci.edu/dataset/437/residential+building+data+set (дата обращения 04.10.2023).
- UCI Machine Learning Repository [Электронный ресурс]. – Режим доступа: https://archive.ics.uci.edu/dataset/203/yearpredictionmsd (дата обращения 04.10.2023).
Информация об авторах
Метрики
Просмотров
Всего: 134
В прошлом месяце: 11
В текущем месяце: 2
Скачиваний
Всего: 66
В прошлом месяце: 4
В текущем месяце: 1