Сравнительный анализ эффективности методов построения вполне интерпретируемых линейных регрессионных моделей

66

Аннотация

Ранее автору удалось свести задачу построения вполне интерпретируемой линейной регрессии, оцениваемой с помощью метода наименьших квадратов, к задаче частично-булевого линейного программирования. В таких моделях знаки оценок соответствуют содержательному смыслу факторов, абсолютные вклады переменных в общую детерминацию существенны, а степень мультиколлинеарности мала. Оптимальное решение сформулированной задачи также может быть найдено методом полного перебора регрессий. Цель статьи заключается в проведении сравнительного анализа эффективности этих двух подходов. Для проведения вычислительных экспериментов использовано 5 наборов реальных статистических данных различных объемов. В результате с помощью пакета LPSolve в разных условиях было решено более 550 различных частично-булевых задач. Параллельно оценена эффективность решения подобных им задач методом полного перебора в пакете Gretl. Во всех экспериментах предложенный нами метод оказался многократно эффективнее метода полного перебора. Самая высокая эффективность была достигнута при решении задач выбора оптимального числа регрессоров из 103 переменных, для решения каждой из которых методом перебора потребовалось бы оценить примерно 2103 (10,1 нониллиона) моделей, с чем обычный компьютер не справился бы и за 1000 лет. В LPSolve каждая из этих задач была решена за 32 – 191 секунду. Предложенным методом за приемлемое время удалось обработать выборку данных большого объема, содержащую 40 объясняющих переменных и 515345 наблюдений, что подтверждает независимость его эффективности от объема выборки. Выявлено, что ужесточение в линейных ограничениях задачи требований на мультиколлинеарность и абсолютные вклады переменных практически всегда снижает скорость её решения.

Общая информация

Ключевые слова: Линейная регрессия, метод наименьших квадратов, интерпретация, задача линейного программирования, метод, переменные, детерминанты, эффективность

Рубрика издания: Методы оптимизации

Тип материала: научная статья

DOI: https://doi.org/10.17759/mda.2023130404

Получена: 30.10.2023

Принята в печать:

Для цитаты: Базилевский М.П. Сравнительный анализ эффективности методов построения вполне интерпретируемых линейных регрессионных моделей // Моделирование и анализ данных. 2023. Том 13. № 4. С. 59–83. DOI: 10.17759/mda.2023130404

Полный текст

Введение

Процесс построения линейной регрессионной модели условно можно разделить на два этапа: 1) выбор структурной спецификации; 2) оценивание неизвестных параметров регрессии. Выбор структурной спецификации, т.е. математической формы связи между переменными, в линейной модели означает решение задачи отбора  наиболее информативных регрессоров (ОИР) [1,2] из общего их числа  на основе некоторого оптимизационного критерия. Точным методом, гарантирующим оптимальное решение задачи ОИР, считается метод полного перебора [1], алгоритм которого предполагает оценивание  моделей-претендентов. Например, если , , то потребуется оценить 10272278170 моделей. Таким образом, метод полного перебора и самый трудоёмкий из всех методов решения задач ОИР. Если же число отбираемых регрессоров неизвестно, то трудоёмкость метода становится ещё больше, поскольку своей оценки при достаточном объеме выборки  требуют уже  моделей. Самым простым методом оценивания линейных регрессий является метод наименьших квадратов (МНК), в рамках которого разработано множество различных статистических тестов.

Для решения задач ОИР в линейных регрессиях (см., например, [3–11]) в настоящее время успешно применяется аппарат математического программирования, что гораздо эффективнее, чем использование переборных процедур. При этом также гарантируется оптимальность построенной модели. В зарубежной литературе задачи ОИР при использовании МНК принято в основном формулировать в виде задач частично-булевого квадратичного программирования (ЧБКП) [3], скорость решения которых зависит от объема выборки . Результаты анализа научных статей по данной тематике представлены в табл. 1, во втором столбце которой приводятся фамилии учёных и год исследования; в третьем – краткая характеристика решаемой задачи ОИР; в четвёртом – максимальный объем выборки nmax и максимальное число объясняющих переменных lmax , обработанных в результате исследования; в пятом – название решателя задачи математического программирования; в шестом – информация о системе, в которой проводились вычислительные эксперименты.

Таблица 1. Результаты анализа научных статей

Авторы (год)

Особенность задачи

(nmax, lmax)

Решатель

Оборудование

1

Конно, Ямамото (2009) [3]

ЧБКП, отбор m регрессоров, эвристический алгоритм

(1000, 70)

CPLEX 10.1

Xeon,

3.73 GHz

2

Мияширо, Такано (2015) [4]

ЧБКП, отбор регрессоров по критериям AIC, BIC и скорректированному коэффициенту детерминации

(1933, 100)

CPLEX

Xeon

3

Мияширо, Такано (2015) [5]

ЧБКП, отбор регрессоров по критерию Меллоуза

(1993, 100)

CPLEX 12.5

Intel Xeon W5590, 3.33 GHz×2,

24 GB RAM

4

Парк, Клабжан (2020) [6]

ЧБКП, отбор регрессоров по разным критериям MAE, MSE и mRMR (минимальной избыточности и максимальной релевантности), итерационный эвристический алгоритм

(506, 103)

CPLEX

Xeon,

2.8 GHz,

15 GB RAM

5

Тамура и др. (2019) [7]

ЧБКП, отбор регрессоров с контролем мультиколлинеарности по критерию VIF

(1993, 100)

CPLEX

Intel Core i7-4770,

3.40 GHz,

8 GB RAM

6

Тамура и др. (2017) [8]

Полуопределенная ЧБКП, отбор регрессоров с контролем мультиколлинеарности по числу обусловленности корреляционной матрицы

(1066, 65)

Gurobi 5.6,

SCIP-SDP-2.0.0

Intel Core2 Quad, 2.66 GHz,

4 GB RAM

7

Бертсимас, Ли (2020) [9]

ЧБКП, отбор значимых регрессоров с контролем мультиколлинеарности, holistic regression

(9358, 125)

Gurobi 8.0

i7-5820k 6-core CPU,

16 GB DRAM

8

Чанг, Парк, Чонг (2020)  [10]

ЧБКП, regression diagnostics

(1599, 124)

Gurobi 9.0

Intel Core i7-8700 CPU, 3.40 GHz (8 CPUs),

32 GB RAM

9

Такано, Мияширо (2020) [11]

ЧБКП, отбор регрессоров в ридж-регрессии с помощью критерия кросс-валидации

(100, 25)

CPLEX 12.8

Intel Core i7-4790 MCU,

3.60 GHz,

16 GB

По табл. 1 видно, что на сегодняшний день существует множество формулировок задач ОИР в терминах ЧБКП, позволяющих контролировать в процессе решения самые разные характеристики линейных регрессий – качество аппроксимации, мультиколлинеарность, значимость коэффициентов и пр. Также видно, что исследователи избегают решения задач большой размерности, когда объемы выборок более 10000 наблюдений, а число объясняющих переменных более 150 штук. При этом вычислительные эксперименты практически всегда проводятся с использованием дорогостоящих пакетов CPLEX и Gurobi на довольно мощных компьютерах.

В [12] автору удалось свести задачу ОИР в линейной регрессии, оцениваемой с помощью МНК, к задаче частично-булевого линейного программирования (ЧБЛП). Целевой функцией в ней выступает коэффициент детерминации, а количество линейных ограничений, в отличие от формулировок [3–11], не зависит об объема выборки . В дальнейшем формализованная задача дополнилась ограничениями на коэффициенты вздутия дисперсии VIF [13], на t-критерии Стьюдента [14] и пр. На данный момент в [15] приведена самая последняя формулировка задачи ЧБЛП, решение которой приводит к построению вполне интерпретируемой линейной регрессии с оптимальным по коэффициенту детерминации количеством регрессоров, в которой знаки МНК-оценок согласованы со знаками соответствующих коэффициентов корреляции с , абсолютные вклады переменных в общую детерминации не меньше заданного числа , а величины интеркорреляций по модулю не больше заданного числа . Тестирование сформулированной в [15] задачи на реальных выборках большого объема никогда ещё не проводилось.

Цель работы заключается в проведении на основе реальных данных различных объемов сравнительного анализа эффективности решения задачи построения вполне интерпретируемых линейных регрессий методом полного перебора и методом решения специальным образом сформулированной задачи ЧБЛП.

Задача ЧБЛП и программа для её автоматического формирования

Пусть в распоряжении исследователя имеется выборка данных объема  для зависимой (объясняемой) переменной  и  независимых (объясняющих) переменных , , ..., . Составим матрицу коэффициентов интеркорреляций

,

и вектор  корреляций объясняющих переменных с .

Сформулируем задачу ЧБЛП для ОИР в линейной регрессии так, как это сделано в [15]:

,                                                       (1)

,  ,                               (2)

,  ,                                                       (3)

,  ,                                                     (4)

,  ,                                                               (5)

,  ,                                                        (6)

,  ,                           (7)

где , , ...,  – неизвестные параметры линейной регрессии в стандартизованном виде;  – коэффициент детерминации; , , ...,  – бинарные переменные, которые определяются по правилу

 – большое положительное число; ,  – индексные подмножества, элементы которых удовлетворяют условиям  и ;  – абсолютный вклад -й переменной в общую детерминацию ; параметр  – наименьшая величина абсолютных вкладов входящих в модель переменных; параметр  – наибольшая величина коэффициентов интеркорреляций входящих в модель переменных.

Решение задачи ЧБЛП (1) – (7) приводит к построению линейной регрессии с оптимальным по критерию  количеством объясняющих переменных, в которой , , вклады , , а интеркорреляции , , , где  – множество номеров отобранных объясняющих переменных. Заметим, что в построенной регрессии некоторые коэффициенты могут оказаться незначимыми по t-критерию Стьюдента, либо может возникнуть мультиколлинеарность сразу между несколькими переменными. Избежать этого можно, дополнив задачу (1) – (7) линейными ограничениями из работ [13,14].

Как известно, эффективность решения задачи ЧБЛП (1) – (7) зависит от выбора большого положительного числа M: если оно слишком велико, то процесс решения может замедлиться, а если мало, то найденное решение может оказаться неоптимальным. Выбор границ параметра M для задачи (1) – (7) обсуждается в [16]. Сначала определяются параметры ,  для линейных ограничений (3) и (4) по формулам:

,  ,                                                            (8)

где  – коэффициент детерминации регрессии, построенной со всеми  объясняющими переменными. Для удобства можно всегда брать .

Затем находятся параметры ,  для линейных ограничений (2). Для этого нужно решить серию из  задач линейного программирования при :

,                                                       (9)

,  ,                                                          (10)

,  ,                                                         (11)

.                                                                  (12)

После чего аналогично для линейных ограничений (2) находятся параметры , . Для этого решается та же серия задач (9) – (12), но с целевыми функциями на максимум.

И, наконец, в задаче ЧБЛП (1) – (7) ограничения (2) – (4) нужно заменить на следующие:

,  ,                             (13)

,  ,                                                    (14)

,  .                                                    (15)

Формировать задачу ЧБЛП (1), (5) – (7), (13) – (15) по реальной выборке данных для программы-решателя вручную не представляется возможным, особенно, если эта выборка большого объема. Для этого была разработана программа построения вполне интерпретируемых элементарных и неэлементарных квазилинейных регрессионных моделей (ВИнтер-2). Она позволяет в зависимости от выбранных пользователем начальных параметров автоматически формировать для решателя LPSolve IDE задачи ЧБЛП для построения различных, в частности, линейных, регрессионных моделей. Для формирования задачи (1), (5) – (7), (13) – (15) нужно выбрать: 1) число отбираемых регрессоров (при необходимости); 2) число знаков после запятой в действительных числах; 3) параметр ; 4) параметр . Выбор больших чисел M осуществляется автоматически. Сформированная задача представляет собой следующую последовательность блоков: 1) целевая функция (1); 2) левые части двойных неравенств (13); 3) правые части двойных неравенств (13); 4) левые и правые части двойных неравенств (14) и (15), содержащие бинарные переменные; 5) левые и правые части двойных неравенств (14) и (15), не содержащие бинарных переменных; 6) ограничения (6); 7) ограничения (7); 8) ограничения типа b12>=-Inf, указывающие на то, что переменные , , ...,  могут быть не только неотрицательными, но и отрицательными; 9) ограничения типа d10<=1, указывающие верхние границы целочисленных переменных; 10) ограничение типа int d1,d2,d3, указывающее на бинарность целочисленных переменных.

Сформированную задачу нужно вручную открыть в решателе LPSolve, после запуска которого наблюдать за процессом её решения.

Описание данных и их предварительная обработка

Для проведения вычислительных экспериментов были использованы статистические данные, представленные в табл. 2. В третьем столбце указан объем выборки  и количество объясняющих переменных . Как видно по табл. 2, в каждом наборе данных его объем  превосходит число объясняющих переменных . Поэтому предварительно, чтобы убедиться в корректности данных, в пакете Gretl по каждому набору с помощью МНК оценивались модели множественной линейной регрессии. С наборами данных Data1, Data3 и Data5 проблем не возникло, были получены модели без совершенной коллинеарности с коэффициентами детерминации 0.620157, 0.737267 и 0.237001 соответственно.

При построении модели по набору Data2 была выявлена функциональная зависимость:

diffSeTime8 = SeTime6 - SeTime7 + 0.5SeTime8 - 0.5SeTime9 -0.5diffSeTime6,

приводящая к совершенной коллинеарности. При этом установлено, что переменные diffSeTime2 и diffSeTime8 содержат только 2 отличных от нуля значения (-0,001 и 0,001). Поэтому было принято решение исключить эти факторы. В результате осталось 38 объясняющих переменных. В оцененной по новому набору Data2* линейной регрессии нет совершенной  коллинеарности, а её коэффициент детерминации составил 0,819211.

Таблица 2. Описание данных и их характеристики

Название

(источник); описание; зависимые переменные

(n, l)

Распределение коэффициентов интеркорреляций

Распределение коэффициентов корреляции с y

1

Data1

(пакет Gretl, встроенный файл data7-20.gdt);

 

данные о зарплатах игроков НБА;

 

SALARY

(56, 25)

2

Data2

(сайт [17]);

 

данные об элеронах самолёта F16;

 

Goal

(13750, 40)

3

Data3

(сайт [18]);

 

данные о критической температуре сверх-проводников;

 

critical_temp

(21263, 81)

4

Data4

(сайт [19]);

 

данные о стоимостях строитель-ства и ценах продаж квартир в Иране;

 

V-9, V-10

(372, 103)

5

Data5

(сайт [20]);

 

данные о годах выпуска песен;

 

year

(515345, 90)

Набор данных Data4 содержит две зависимых переменных – V-9 и V-10. Поэтому выборку с зависимой переменной V-9 будем называть Data4a, а с V-10 – Data4b. В модели, оцененной по набору Data4a, выявлена совершенная коллинеарность, поэтому Gretl автоматически исключил 29 переменных. Коэффициент детерминации итоговой модели составил 0,987584. Аналогично, по набору Data4b было исключено 29 факторов, а для итоговой регрессии . Для проведения вычислительных экспериментов было принято решение в наборах Data4a и Data4b оставить список из 103 переменных в полном составе.

Оценка скорости решения задач ОИР методом полного перебора

Получить решение задачи ЧБЛП (1), (5) – (7), (13) – (15) можно также тривиальным способом, организовав полный перебор всех возможных вариантов регрессионных моделей. Для того чтобы была возможность сравнивать эффективность двух этих подходов, требовалось найти статистическую зависимость скорости  решения задач ОИР полным перебором от заданного числа регрессоров . Для этого был разработан специальный скрипт для пакета Gretl, реализующий процедуру отбора ровно  регрессоров в линейной регрессии по следующему алгоритму:

  • формируется матрица всех возможных комбинаций регрессоров, содержащая строк и столбцов;
  • по выборке находятся корреляционные матрицы и ;
  • с помощью матрицы комбинаций в цикле с помощью матриц и находятся стандартизованные оценки линейной регрессии и коэффициенты детерминации ;
  • выбирается лучшая модель с наибольшей величиной .

С помощью этого скрипта на персональном компьютере c процессором Intel Core i5-4670 CPU (3.40 GHz) и объемом оперативной памяти 8 GB RAM было проведено два эксперимента – по набору данных Data3 и Data5. Число  задавалось равным 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 20, 25, 30, 35, 36, 37, 40, 45, 50, 55, 58, 64, 70 (при  задача решается практически мгновенно). Для каждого  фиксировалось общее количество обработанных моделей и время решения задачи ОИР (без учёта времени формирования матрицы комбинаций) в секундах. В результате были найдены скорости  (моделей/сек), как отношения общего числа моделей ко времени. Сразу было установлено, что при переходе с  на  в обоих экспериментах произошел солидный скачок скорости  в сторону уменьшения. Поэтому было принято решение строить статистические зависимости отдельно при  и при .

На рис. 1 синими точками указаны скорости, полученные при обработке выборки Data3, а оранжевыми – Data5. Как видно, эти скорости при равных  практически не отличаются. Кроме того, зависимость  от  носит нелинейных характер.

(а)

(б)

Рис. 1. Зависимости скоростей от числа m

Для построения зависимостей в качестве объясняемой переменной была использована средняя скорость . С помощью МНК оценивалась степенная функция  при  и  при . Коэффициенты детерминации оцененных моделей в прологарифмированном виде составили 0,9799 и 0,9856, что подтверждает их высокое качество. Итоговая зависимость средней скорости  решения задач ОИР полным перебором (на конкретном персональном компьютере) имеет вид:

                                         (16)

На рис. 1 черным цветом указаны расчетные по формуле (16) скорости, которые практически совпадают с фактическими.

Вычислительные эксперименты

Вычислительные эксперименты проводились на персональном компьютере c процессором Intel Core i5-4670 CPU (3.40 GHz) и объемом оперативной памяти 8 GB RAM. Решались задачи ЧБЛП (1), (5) – (7), (13) – (15) по наборам данных Data1, Data2*, Data3, Data4a, Data4b и Data5 в зависимости от заданных параметров  и . Параметр  для всех выборок задавался равным от 0,1 до 1 с шагом 0,1. Наименьшее значение параметра  равно 0, а наибольшее  выбиралось так, чтобы при  и  происходил отбор одного или двух регрессоров. Для формирования задач ЧБЛП была использована программа ВИнтер-2, точность действительных чисел – 12 знаков после запятой. Большие числа M в ограничениях (13) – (15) ВИнтер-2 определяет автоматически по формулам (8) при  и как результат решения серий задач линейного программирования типа (9) – (12). Решателем задач ЧБЛП выступает пакет LPSolve IDE с настройками по умолчанию. Лимит времени на решение задачи составляет 1800 секунд (полчаса). Все эксперименты проводились в предположении, что знаки коэффициентов корреляции объясняющих переменных с  согласуются с содержательным смыслом факторов.

Результаты вычислительных экспериментов по данным Data1 представлены в табл. 3.

Таблица 3. Результаты вычислительных экспериментов по набору данных Data1

r

θ

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1

0

4

0,2653

0,476

5

0,2655

1,241

7

0,3106

2,791

8

0,3236

4,650

10

0,3899

5,601

10

0,3899

12,041

11

0,4124

10,716

11

0,4335

28,438

11

0,4335

35,705

14

0,4446

53,507

0,001

4

0,2653

0,505

4

0,2653

1,168

6

0,3097

2,467

7

0,3231

4,080

8

0,3869

5,119

8

0,3869

9,790

9

0,4118

10,741

9

0,4335

24,513

9

0,4335

33,431

11

0,4439

30,999

0,005

4

0,2653

0,466

4

0,2653

0,900

6

0,3097

1,632

6

0,3225

2,120

6

0,3819

2,604

6

0,3819

4,492

8

0,4116

4,580

8

0,4314

9,258

8

0,4314

12,051

8

0,4314

17,781

0,01

2

0,2495

0,400

2

0,2495

0,737

3

0,2925

1,220

4

0,3062

1,588

5

0,3807

1,919

5

0,3807

3,010

6

0,4044

3,189

7

0,4256

5,875

7

0,4256

7,675

7

0,4256

10,781

0,05

1

0,2416

0,239

1

0,2416

0,310

1

0,2416

0,607

1

0,2416

0,794

2

0,2674

0,910

2

0,2674

1,390

2

0,2674

1,511

2

0,2674

2,588

2

0,2674

3,284

2

0,2674

4,400

В табл.3 для каждой пары значений параметров  и  указано количество отобранных переменных , коэффициент детерминации  найденной модели, время  решения задачи в секундах. По этой таблице видно, что, во-первых, во всех 50 случаях получено оптимальное решение в установленный получасовой лимит. Во-вторых, больше всего времени (53,507 с) ушло на решение задачи при  и  (при полном отсутствии требований на вклады переменных и мультиколлинеарность), а меньше всего (0,239 с) – при  и  (при самых жестких требованиях на вклады переменных и мультиколлинеарность). В целом по табл. 3 можно наблюдать, что увеличение  (ужесточение требования на вклады) и уменьшение  (ужесточение требования на мультиколлинеарность) практически всегда снижает время решения задачи.

Решить любую задачу из табл. 3 можно методом полного перебора. Причём, при , 0.001, 0.005, 0.01 для этого пришлось бы оценить  моделей. С помощью формулы (16) установлено, что на это потребовалось бы (без учёта времени на формирование матриц комбинаций и проверки условий) примерно 3206,46 с. Отсюда следует, что эффективность решения задач ОИР представленным способом в LPSolve оказалась в 59,9–8016,1 раз выше, чем методом полного перебора в Gretl. Поскольку значение  для модели со всеми 25 переменными составляет 0,620157, то при  максимальное число регрессоров , поэтому пришлось бы оценить только  моделей, на что потребуется примерно 1232,81 с. В этом случае эффективность решения задач ОИР нашим методом оказалась в 280,2–5158,2 раз выше, чем методом полного перебора.

Результаты вычислительных экспериментов по данным Data2* представлены в табл. 4.

Таблица 4. Результаты вычислительных экспериментов по набору данных Data2*

r

θ

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1

0

5

0,5893

12,863

9

0,6996

33,198

13

0,7159

72,437

11

0,8129

103,799

11

0,8129

149,199

14

0,8129

150,915

15

0,8147

204,339

15

0,8147

248,128

15

0,8147

247,745

18

0,8148

365,958

0,0005

3

0,5887

8,019

7

0,6995

17,779

10

0,7154

29,021

6

0,8128

40,145

6

0,8128

53,399

7

0,8128

55,803

7

0,8143

73,818

7

0,8143

80,246

7

0,8143

79,919

11

0,8145

88,751

0,001

3

0,5887

6,959

5

0,6970

15,336

8

0,7127

22,617

5

0,8122

31,016

5

0,8122

41,017

6

0,8123

43,394

7

0,8139

56,285

7

0,8139

60,167

7

0,8139

59,634

8

0,8142

57,594

0,01

2

0,5857

5,513

4

0,6956

8,093

4

0,6956

9,199

4

0,8104

10,514

4

0,8104

15,558

4

0,8104

16,499

4

0,8104

18,942

4

0,8104

19,330

4

0,8104

19,161

6

0,8107

21,441

0,05

2

0,5857

1,982

3

0,6435

2,840

3

0,6435

2,758

3

0,7514

3,836

3

0,7514

5,242

3

0,7514

5,455

3

0,7514

5,508

3

0,7514

5,509

3

0,7514

5,418

5

0,7518

5,257

Как видно, снова во всех 50 случаях получено оптимальное решение в установленный получасовой лимит. И вновь в большинстве случаев чем выше  и ниже , тем меньше время решения задачи. Больше всего времени (365,958 с) ушло на решение задачи при  и , а меньше всего (1,982 с) – при  и . Замечено, что, например, при  с ростом  число отобранных регрессоров может убывать.

При , 0.0005, 0.001, 0.01 методом перебора пришлось бы оценить  (275 миллиардов) моделей, на что потребовалось бы примерно 48138036,2 с или 557 суток непрерывной работы компьютера. Таким образом, эффективность решения задач ОИР представленным способом в LPSolve оказалась в 131540–8731732 раз выше, чем методом полного перебора в Gretl. При  максимальное число регрессоров , поэтому пришлось бы оценить  моделей, на что потребуется примерно 6903730,63 с. В этом случае эффективность решения задач ОИР нашим методом в 1253173–3483214 раз выше, чем методом полного перебора.

Вычислительные эксперименты по набору данных Data3 проводились в четырех разных условиях: 1) прямой порядок объясняющих переменных от 1 до 81; 2) обратный порядок объясняющих переменных от 81 до 1; 3) обратный порядок объясняющих переменных и задача ЧБЛП (1) – (7) с параметрами M=50; 4) обратный порядок объясняющих переменных, задача ЧБЛП (1) – (7) с параметрами M=50 и дополнительными ограничениями на :

,             ,                                              (17)

где  – нижняя граница коэффициента детерминации. Это значение всегда можно брать равным максимальному из коэффициентов детерминации однофакторных линейных регрессий. В данном случае в условиях №4 таблица результатов формировалась построчно слева направо, начиная с нижнего левого угла ( , ). При этом значение  для активных  и  выбиралось равным максимальному из коэффициентов детерминации моделей, полученных на предыдущих шагах при  и . Точность величины  составляла 6 знаков после запятой.

Результаты вычислительных экспериментов по данным Data3 представлены в табл. 5.

Таблица 5. Результаты вычислительных экспериментов по набору данных Data3

r

θ

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1

Условия №1. Прямой порядок переменных

0

2

0,5397

197,767

4

0,5666

1621,51

8

0,5994

1800

11

0,6165

1800

13

0,6554

1800

14

0,6453

1800

17

0,6446

1800

19

0,6437

1800

22

0,6185

1800

1800

0,01

2

0,5397

201,172

5

0,5665

1273,26

6

0,5894

1800

9

0,6022

1800

9

0,6022

1800

11

0,5787

1800

13

0,6184

1800

15

0,6121

1800

15

0,6121

1800

16

0,6314

1800

0,05

1

0,5202

133,713

1

0,5202

502,107

5

0,5817

1268,24

4

0,5881

1800

7

0,5376

1800

1800

1800

1800

1800

1800

0,07

1

0,5202

110,147

1

0,5202

332,869

2

0,5582

631,762

5

0,5749

1103,64

4

0,6113

1467,54

4

0,6119

1704,19

4

0,6119

1800

4

0,6119

1800

4

0,6119

1800

4

0,6119

1800

0,10

1

0,5202

80,43

1

0,5202

175,849

1

0,5202

304,19

1

0,5202

454,936

3

0,5835

574,821

4

0,5983

617,37

4

0,5983

629,754

4

0,5983

618,929

4

0,5983

728,914

4

0,5983

655,219

Условия №2. Обратный порядок переменных

0

2

0,5397

188,246

4

0,5666

1679,87

8

0,5994

1800

12

0,6176

1800

13

0,6552

1800

14

0,6392

1800

18

0,6367

1800

1800

1800

1800

0,01

2

0,5397

167,225

5

0,5665

1209,17

5

0,5948

1800

9

0,6297

1800

11

0,6180

1800

12

0,6341

1800

14

0,6420

1800

14

0,6420

1800

1800

1800

0,05

1

0,5202

93,31

1

0,5202

385,996

5

0,5817

666,43

4

0,5881

878,796

5

0,6160

826,987

5

0,6273

715,434

7

0,6393

677,096

7

0,6393

695,793

7

0,6393

878,9

7

0,6393

903,362

0,07

1

0,5202

81,226

1

0,5202

241,379

2

0,5582

431,757

5

0,5749

457,4

4

0,6113

407,74

4

0,6119

393,263

4

0,6119

384,443

4

0,6119

396,190

4

0,6119

434,534

4

0,6119

443,542

0,10

1

0,5202

59,355

1

0,5202

174,296

1

0,5202

269,955

1

0,5202

267,461

3

0,5835

223,619

4

0,5983

203,14

4

0,5983

192,821

4

0,5983

198,769

4

0,5983

216,876

4

0,5983

211,203

Условия №3. Обратный порядок переменных, M=50

0

2

0,5397

122,945

4

0,5666

1350,71

8

0,5994

1800

12

0,6176

1800

12

0,6199

1800

14

0,6392

1800

18

0,6430

1800

1800

1800

16

0,5957

1800

0,01

2

0,5397

97,617

5

0,5665

884,315

5

0,5948

1800

9

0,6297

1800

11

0,6180

1800

12

0,6341

1800

14

0,6420

1800

14

0,6420

1800

1800

1800

0,05

1

0,5202

58,057

1

0,5202

262,76

5

0,5817

401,332

4

0,5881

575,673

5

0,6160

586,709

5

0,6273

471,719

7

0,6393

430,101

7

0,6393

432,044

7

0,6393

534,787

7

0,6393

522,983

0,07

1

0,5202

51,048

1

0,5202

159,867

2

0,5582

287,328

5

0,5749

354,384

4

0,6113

372,046

4

0,6119

355,241

4

0,6119

324,892

4

0,6119

318,005

4

0,6119

332,508

4

0,6119

346,67

0,10

1

0,5202

44,343

1

0,5202

133,396

1

0,5202

224,789

1

0,5202

283,247

3

0,5835

294,821

4

0,5983

260,734

4

0,5983

249,054

4

0,5983

247,104

4

0,5983

276,976

4

0,5983

271,1

Условия №4. Обратный порядок переменных, M=50, доп. ограничения на R2

0

2

0,539710

108,714

4

0,566696

772,040

8

0,599489

1800

1800

13

0,655216

1800

1800

18

0,662074

1800

18

0,662192

1800

16

0,666679

1800

1800

0,01

2

0,539710

99,664

5

0,566547

1085,624

6

0,589429

1800

9

0,629783

1800

10

0,650646

1800

11

0,654328

1800

12

0,655761

1800

12

0,655761

1800

11

0,659170

1800

1800

0,05

1

0,520231

54,256

1

0,520231

249,392

5

0,581710

335,111

4

0,588120

462,939

5

0,616071

358,06

5

0,627385

318,455

7

0,639385

288,019

7

0,639385

1800

7

0,639385

1800

7

0,639385

1800

0,07

1

0,520231

40,110

1

0,520231

112,673

2

0,558250

118,839

5

0,574943

185,496

4

0,611381

123,995

4

0,611953

107,23

4

0,611953

132,089

4

0,611953

125,089

4

0,611953

150,584

4

0,611953

144,08

0,10

1

0,520231

26,751

1

0,520231

48,796

1

0,520231

60,380

1

0,520231

71,449

3

0,583520

35,280

4

0,598350

35,910

4

0,598350

32,866

4

0,598350

30,728

4

0,598350

31,091

4

0,598350

30,568

 

В табл. 5 для наглядности серым цветом выделены ячейки, для которых за полчаса либо не доказана оптимальность решения задачи, либо вообще не получено решение. Для сравнения результатов вычислительных экспериментов, проведенных в четырех условиях, была составлена табл. 6. Во втором её столбце для каждого условия указан процент оптимальных решений 50 задач, в третьем – процент задач без решения в установленный лимит времени, в четвертом – общее время решения 50-ти задач, в пятом – среднее время поиска оптимального решения, в шестом – среднее значение  для моделей с доказанной и не доказанной оптимальностью.

Таблица 6. Показатели эффективности решенных по данным Data3 задач в зависимости от условий

Условие

Оптимальные решения, %

Решения без результата за 30 мин, %

Общее время решения 50-ти задач, с

Среднее время на поиск оптимального решения, с

Среднее качество моделей по R2

1

46

12

63988,33

669,95

0,584779

2

68

10

44455,58

460,45

0,591822

3

68

8

40719,31

350,56

0,591276

4

62

8

39976,28

186,33

0,597076

По табл. 6 можно сделать следующие выводы.

  1. Порядок следования объясняющих переменных в исходной выборке может существенно влиять на скорость решения задачи ЧБЛП. Оказалось, что изменение порядка следования переменных с прямого (от 1 до 81) на обратный (от 81 до 1) увеличило процент оптимальных решений на 22%, снизило процент решений без результата на 2%, уменьшило общее время решения 50-ти задач на 19533 с (примерно на 5,5 часов) и среднее время на поиск оптимального решения на 209,5 с, а также увеличило среднее качество моделей по R2 на 0,007043.
  2. На скорость решения задачи ЧБЛП могут существенно влиять выбранные значения больших чисел . Получилось, что по выборке с обратным порядком следования переменных изменение в задаче (1), (5) – (7), (13) – (15) всех больших чисел на уменьшило процент решений без результата на 2%, общее время решения 50-ти задач на 3736,27 с, среднее время на поиск оптимального решения на 109,89. При этом процент оптимальных решений не изменился, а среднее качество моделей по R2 снизилось на 0,000546.
  3. Внедрение ограничений (17) может существенно влиять на скорость решения задачи ЧБЛП. Последовательное проведение экспериментов в условиях №4 оказалось самым эффективным. По сравнению с экспериментами в условиях №3 уменьшилось общее время решения 50-ти задач на 743,03 с, среднее время на поиск оптимального решения на 164,23 с, увеличилось среднее качество моделей по R2 на 0,0058. Процент решений без результата не изменился, а процент оптимальных решений снизился на 6% из-за задач при , .

Для сравнения с методом перебора была взяты результаты вычислительных экспериментов (только оптимальные решения), полученные в условиях №3. Тут снова прослеживается снижение времени решения задач при больших  и малых .

При  методом перебора пришлось бы оценить  (2,4 септиллиона) моделей примерно за  с; при  – примерно то же самое; при  –  (2,3 квадриллиона) моделей примерно за  с (7853 года); при  –  (2,1 триллионов) моделей примерно за 144911622 с (4,6 лет); при  –  (3,8 миллиарда) моделей примерно за 151981 с (42,2 часов).

Таким образом, эффективность решения задач ОИР нашим методом в LPSolve при  в  –  раз, при  в  –  раз, при  в 420992349 – 4254439602 раз, при  в 389499,2 – 2838732,6 раз, при  в 515,5 – 3427,4 раз выше, чем методом полного перебора в Gretl. Подтверждают эффективность и дополнительные эксперименты при  и . Эти задачи были решены за 3278,48 с, 7383,34 с, 11866,6 с и 12386,7 с соответственно. Количества отобранных переменных и коэффициенты детерминации построенных моделей оказались следующие: (5, 0.5948), (9, 0.6297), (10, 0.6520) и (11, 0.6543).

Вычислительные эксперименты по набору данных Data4a проводились в двух разных условиях: 1) без ограничений на R2; 2) с ограничениями (17) на R2, . Результаты представлены в табл. 7.

Таблица 7. Результаты вычислительных экспериментов по набору данных Data4a

r

θ

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1

Условия №1a. Без ограничений на R2

0

3

0,9586

254,802

6

0,9590

1044,10

7

0,9613

284,86

9

0,9621

363,74

10

0,9636

534,326

10

0,96412

450,241

10

0,96412

753,755

11

0,96416

727,38

11

0,96416

903,586

11

0,96416

771,539

0,005

2

0,9586

204,809

2

0,9586

1574,24

4

0,9609

545,858

6

0,9615

960,526

9

0,9634

1477,09

10

0,5124

1800

13

0,5194

1800

14

0,5188

1800

14

0,5188

1800

14

0,5188

1800

0,007

2

0,9586

190,126

2

0,9586

1189,97

3

0,9605

810,467

3

0,9605

1375,36

9

0,6942

1800

10

0,6982

1800

12

0,7092

1800

11

0,7128

1800

14

0,7133

1800

15

0,7134

1800

0,01

2

0,9586

167,112

2

0,9586

868,475

2

0,9586

968,963

2

0,9586

1557,69

10

0,6981

1800

9

0,6965

1800

10

0,7090

1800

11

0,6836

1800

12

0,7131

1800

13

0,7132

1800

0,015

1

0,9534

174,815

1

0,9534

554,243

1

0,9534

788,331

1

0,9534

1169,25

4

0,9564

1423,2

8

0,6822

1800

8

0,7031

1800

12

0,6817

1800

10

0,6743

1800

8

0,5689

1800

Условия №2a. С ограничениями на R2

0

3

0,9586

31,949

6

0,9590

47,057

7

0,9613

73,006

9

0,9621

101,18

10

0,9636

160,98

10

0,96412

160,675

10

0,96412

191,21

11

0,96416

173,251

11

0,96416

165,566

11

0,96416

117,857

0,005

2

0,9586

58,102

2

0,9586

83,709

4

0,9609

106,131

6

0,9615

115,674

9

0,9634

108,645

8

0,9638

108,432

8

0,9638

115,711

9

0,9638

103,331

9

0,9638

94,869

9

0,9638

64,817

0,007

2

0,9586

55,209

2

0,9586

76,711

3

0,9605

89,198

3

0,9605

101,247

8

0,9632

90,868

7

0,9635

90,318

8

0,9636

91,7

8

0,9636

79,838

8

0,9636

71,328

8

0,9636

48,881

0,01

2

0,9586

46,585

2

0,9586

66,94

2

0,9586

75,757

2

0,9586

83,938

6

0,9620

75,291

6

0,9632

76,675

6

0,9633

77,701

6

0,9633

67,239

6

0,9633

59,494

6

0,9633

40,978

0,015

1

0,9534

38,231

1

0,9534

57,707

1

0,9534

70,649

1

0,9534

88,668

4

0,9564

70,492

5

0,9584

68,855

5

0,9584

69,151

5

0,9584

59,99

5

0,9584

52,417

5

0,9584

35,984

 По табл. 7 видно, что в обоих условиях процент решений без результата составляет 0%. Оказалось, что введение ограничений на R2 увеличило процент оптимальных решений с 56% до 100%, снизило общее время решения 50-ти задач с 61688,85 с до 4260,19 с (примерно в 14,5 раз) и среднее время на поиск оптимального решения с 788,88 с до 85,2 с (примерно в 9,2 раза), увеличило среднее качество моделей по R2 c 0,824478 до 0,960828.

Для сравнения с методом перебора была взяты результаты вычислительных экспериментов, полученные в условиях №2a. Снова прослеживается снижение времени решения задач при больших  и малых . Но в этот раз оно менее выраженное.

При  методом перебора пришлось бы оценить  (10,1 нониллиона) моделей примерно за  с (без учёта времени на формирование матриц комбинаций и проверки условий); при  – примерно то же самое.

Таким образом, эффективность решения задач ОИР нашим методом в LPSolve в  –  раз выше, чем методом полного перебора в Gretl.

Вычислительные эксперименты по набору данных Data4b проводились в двух разных условиях: 1) без ограничений на R2; 2) с ограничениями (17) на R2, параметр , значение  с шестью знаками после запятой выбиралось так же, как при экспериментировании по выборке Data3 при условиях №4. Результаты представлены в табл. 8.

Таблица 8. Результаты вычислительных экспериментов по набору данных Data4b

r

θ

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1

Условия №1b. Без ограничений на R2

0

1

0,9279

476,549

4

0,9579

1456,01

6

0,9589

1800

9

0,9606

1800

10

0,9615

1800

8

0,9630

1800

11

0,9660

1800

13

0,9665

1800

14

0,9665

1800

19

0,9666

1800

0,01

1

0,9279

407,725

2

0,9576

1223,05

4

0,8503

1800

9

0,8445

1800

10

0,8418

1800

9

0,8834

1800

13

0,8891

1800

10

0,8883

1800

12

0,8908

1800

15

0,8932

1800

0,02

1

0,9279

262,429

2

0,9576

925,852

2

0,9576

1732,88

10

0,8666

1800

10

0,8636

1800

10

0,9060

1800

11

0,9072

1800

10

0,8507

1800

10

0,8519

1800

11

0,8524

1800

0,03

1

0,9279

244,271

2

0,9576

761,42

2

0,9576

1260,54

2

0,9576

1800

9

0,8738

1800

9

0,9089

1800

8

0,8958

1800

8

0,8900

1800

7

0,7390

1800

8

0,7099

1800

0,04

1

0,9279

204,977

2

0,9576

496,809

2

0,9576

762,148

2

0,9576

1033,84

2

0,9576

1446,00

2

0,9576

1384,48

9

0,9152

1800

9

0,8881

1800

9

0,8881

1800

8

0,8878

1800

Условия №2b. M=60, с ограничениями на R2

0

1

0,927989

46,401

4

0,957929

1800

6

0,958979

1800

9

0,960627

1800

10

0,961561

1800

1800

11

0,967157

1800

13

0,967616

1800

1800

19

0,967702

1800

0,01

1

0,927989

52,337

2

0,957639

98,446

2

0,957639

234,152

3

0,958815

262,537

7

0,960867

265,578

8

0,963793

281,362

8

0,966249

526,623

10

0,967416

947,019

10

0,967416

1033,387

12

0,967487

759,165

0,02

1

0,927989

36,52

2

0,957639

69,071

2

0,957639

100,474

2

0,957639

123,127

2

0,957639

122,061

4

0,960368

116,364

6

0,964694

183,657

7

0,966500

164,036

7

0,966500

145,346

8

0,966540

110,548

0,03

1

0,927989

31,049

2

0,957639

54,54

2

0,957639

71,537

2

0,957639

84,363

2

0,957639

81,779

4

0,959505

83,223

4

0,961506

128,814

4

0,961806

123,908

4

0,961806

105,228

4

0,961806

76,214

0,04

1

0,927989

25,434

2

0,957639

46,274

2

0,957639

52,513

2

0,957639

62,761

2

0,957639

66,221

2

0,957639

72,432

3

0,961018

97,052

3

0,961018

85,535

3

0,961018

77,604

3

0,961018

55,490

 По табл. 8 было установлено, что в условиях №2b процент решений без результата увеличился с 0% до 4%, процент оптимальных решений увеличился с 32% до 82%, общее время решения 50-ти задач уменьшилось с 75279 с до 23360,2 с, среднее время на поиск оптимального решения уменьшилось с 879,9 с до 174,6 с, среднее качество моделей по R2 увеличилось с 0,91034 до 0,957776.

Для сравнения с методом перебора была взяты результаты вычислительных экспериментов, полученные в условиях №2b. Судить о влиянии  и  на время решения задач не правомерно, поскольку все они были решены при разных .

При  методом перебора пришлось бы оценить  моделей примерно за  с; при  – примерно то же самое; при  –  (0,777 октиллиона) моделей примерно за  с; при  –  (0,252 септиллиона) моделей примерно за   с.

Таким образом, эффективность решения задач ОИР нашим методом в LPSolve при  в  –  раз, при  в  –  раз, при  в  –  раз выше, чем методом полного перебора в Gretl.

Вычислительные эксперименты по самому крупному набору данных Data5 предварительно проводились по ненулевым значениям  и низким значениям . В установленные получасовые лимиты были получены следующие результаты: 1) при  и  отобрано 3 регрессора, , оптимальность не доказана; 2) при  и  нет результата; 3) при  и  отобрано 2 регрессора, , оптимальность не доказана; 4) при  и  нет результата.

Таким образом, установленного получасового лимита оказалось недостаточно для решения задач по выборке Data5. Тем не менее, в некоторых случаях довольно быстро получаются близкие к оптимальным, а, возможно, и оптимальные, решения.

Далее было принято решение упорядочить объясняющие переменные по убыванию модулей их коэффициентов корреляции с  и из первых 40 факторов сформировать новую выборку Data5*. Для линейной регрессии со всеми 40 переменными . Результаты вычислительных экспериментов по набору данных Data5* представлены в табл. 9.

Таблица 9. Результаты вычислительных экспериментов по набору данных Data5

r

θ

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1

0

8

0,0729

52,382

17

0,1001

1335,40

19

0,1359

1800

19

0,1482

1800

20

0,1690

1800

20

0,1691

1800

20

0,1691

1800

20

0,1691

1800

21

0,1694

1800

21

0,1694

1800

0,0025

6

0,0708

38,411

12

0,0990

564,321

13

0,1328

1493,81

14

0,1465

1761,19

12

0,1663

1417,78

12

0,1663

1635,9

12

0,1663

1655,63

12

0,1663

1663,39

12

0,1663

1681,36

12

0,1663

1661,53

0,005

4

0,0654

26,289

9

0,0918

214,816

7

0,1233

432,443

8

0,1363

595,44

7

0,1566

609,035

7

0,1566

667,344

7

0,1566

672,059

7

0,1566

695,564

7

0,1566

671,565

7

0,1566

670,639

0,0075

3

0,0600

22,405

4

0,0717

150,41

4

0,1073

286,088

5

0,1166

440,173

5

0,1493

440,781

5

0,1493

484,955

5

0,1493

487,463

5

0,1493

504,33

5

0,1493

483,014

5

0,1493

503,118

0,01

2

0,0525

21,002

3

0,0665

128,272

3

0,1032

239,305

4

0,1103

350,11

4

0,1394

358,752

4

0,1394

397,330

4

0,1394

396,758

4

0,1394

404,456

4

0,1394

397,752

4

0,1394

397,8

 По табл. 9 можно сделать вывод, что оптимальных решений – 84%, решений без результата – 0%, общее время решения 50-ти задач – 41510 с, среднее время на поиск оптимального решения – 645,5 с, среднее качество моделей по R2 – 0,1339. Значения в табл. 9 подтверждают, что с ростом  и уменьшением  скорость решения задач практически всегда возрастает.

При  методом перебора пришлось бы оценить  моделей примерно за 207409219 с (6,57 лет); при  – примерно то же самое; при  –  моделей примерно за 168933865 с (5,35 лет); при  –  моделей примерно за 31076852 с (1 год).

Таким образом, эффективность решения задач ОИР нашим методом в LPSolve при  в 117766 – 7889582 раз, при  в 334967 – 7540007 раз, при  в 76836 – 1479709 раз выше, чем методом полного перебора в Gretl.

Заключение

Подчеркнем основные результаты, полученные в данной работе.

  1. Экспериментально доказано, что построение вполне интерпретируемой линейной регрессии предложенным методом, состоящим в решении задачи ЧБЛП (1), (5) – (7), (13) – (15), многократно эффективнее метода полного перебора. Для набора данных Data1 наш подход оказался эффективнее в 59,9 – 8016,1 раз; для Data2* – в 131540 – 8731732 раз; для Data3 – в 515,5 – раз; для Data4a – в –  раз; для Data4b – в  –  раз; для Data5* – в 76836 – 7889582 раз.
  2. Среди полученных за получасовой промежуток времени 550-ти решений, представленных в табл. 3, 4, 5, 7, 8, 9, оптимальных оказалось 399 (72,6%), обычных – 130 (23,6%), отсутствующих – 21 (3,8%). Таким образом, за приемлемое время в большинстве случаев были найдены оптимальные или близкие к ним решения.
  3. Эффективность предложенного метода не зависит от объема выборки , поэтому удалось обработать набор данных Data5*, содержащий 40 объясняющих переменных и 515345 наблюдений. Так, например, в работах [3-11] зарубежных авторов максимальный объем выборки для решения подобных задач составил всего 9358 наблюдений, т.е. примерно в 55 раз меньше.
  4. Замечено, что выбор параметров и может существенно влиять на скорость решения задачи ЧБЛП. Причём, с увеличением  (ужесточение требований на вклады переменных) и уменьшением  (ужесточение требований на мультиколлинеарность) время решения задачи в большинстве случаев снижается, т.е. вполне интерпретируемая линейная регрессия строится быстрее, чем реализуется обычный ОИР без ограничений на  и .
  5. Установлено, что на эффективность решения задачи ЧБЛП может существенно влиять порядок следования объясняющих переменных в выборке, параметр M, а также дополнительные ограничения (17) на коэффициент детерминации. Механизм влияния этих и других параметров на скорость решения задачи ЧБЛП требует дальнейших исследований.

Литература

  1. Стрижов В.В., Крымова Е.А. Методы выбора регрессионных моделей. М.: Вычислительный центр им. А.А. Дородницына РАН, 2010. 60 с.
  2. Miller A. Subset selection in regression. CRC Press, 2002.
  3. Konno H., Yamamoto R. Choosing the best set of variables in regression analysis using integer programming // Journal of Global Optimization. 2009. Vol. 44. P. 273–282. DOI:10.1007/s10898-008-9323-9.
  4. Miyashiro R., Takano Y. Mixed integer second-order cone programming formulations for variable selection in linear regression // European Journal of Operational Research. 2015. Vol. 247. P. 721–731. DOI:10.1016/j.ejor.2015.06.081.
  5. Miyashiro R., Takano Y. Subset selection by Mallows’ Cp: A mixed integer programming approach // Expert Systems with Applications. 2015. Vol. 42. P. 325–331. DOI:10.1016/j. eswa.2014.07.056.
  6. Park Y.W., Klabjan D. Subset selection for multiple linear regression via optimization // Journal of Global Optimization. 2020. Vol. 77. P. 543–574. DOI:10.1007/s10898-020-00876-1.
  7. Tamura R., Kobayashi K., Takano Y., Miyashiro R., Nakata K., Matsui T. Mixed integer quadratic optimization formulations for eliminating multicollinearity based on variance inflation factor // Journal of Global Optimization. 2019. Vol. 73. P. 431–446. DOI:10.1007/s10898-018-0713-3.
  8. Tamura R., Kobayashi K., Takano Y., Miyashiro R., Nakata K., Matsui T. Best subset selection for eliminating multicollinearity // Journal of the Operations Research Society of Japan. 2017. Vol. 60(3). P. 321–336. DOI:10.15807/jorsj.60.321.
  9. Bertsimas D., Li M.L. Scalable holistic linear regression // Operations Research Letters. 2020. Vol. 48, Is. 3. P. 203–208. DOI:10.1016/j.orl.2020.02.008.
  10. Chung S., Park Y.W., Cheong T. A mathematical programming approach for integrated multiple linear regression subset selection and validation // Pattern Recognition. 2020. Vol. 108. DOI:10.1016/j.patcog.2020.107565.
  11. Takano Y., Miyashiro R. Best subset selection via cross-validation criterion. Top. 2020. Vol. 28, Is. 2. P. 475–488. DOI: 10.1007/s11750-020-00538-1.
  12. Базилевский М.П. Сведение задачи отбора информативных регрессоров при оценивании линейной регрессионной модели по методу наименьших квадратов к задаче частично-булевого линейного программирования // Моделирование, оптимизация и информационные технологии. 2018. Т. 6. № 1 (20). С. 108-117.
  13. Базилевский М.П. Отбор информативных регрессоров с учётом мультиколлинеарности между ними в регрессионных моделях как задача частично-булевого линейного программирования // Моделирование, оптимизация и информационные технологии. 2018. Т. 6. № 2 (21). С. 104-118.
  14. Базилевский М.П. Отбор значимых по критерию Стьюдента информативных регрессоров в оцениваемых с помощью МНК регрессионных моделях как задача частично-булевого линейного программирования // Вестник Воронежского государственного университета. Серия: Системный анализ и информационные технологии. 2021. № 3. С. 5-16.
  15. Базилевский М.П. Формализация процесса отбора информативных регрессоров в линейной регрессии в виде задачи частично-булевого линейного программирования с ограничениями на коэффициенты интеркорреляций // Современные наукоёмкие технологии. 2023. № 8. С. 10-14.
  16. Базилевский М.П. Способ определения параметра M в задаче частично-булевого линейного программирования для отбора регрессоров в линейной регрессии // Вестник Технологического университета. 2022. Т. 25. № 2. С. 62-66.
  17. Knowledge Extraction based on Evolutionary Learning [Электронный ресурс]. – Режим доступа: https://sci2s.ugr.es/keel/dataset.php?cod=93 (дата обращения 04.10.2023).
  18. UCI Machine Learning Repository [Электронный ресурс]. – Режим доступа: https://archive.ics.uci.edu/dataset/464/superconductivty+data (дата обращения 04.10.2023).
  19. UCI Machine Learning Repository [Электронный ресурс]. – Режим доступа: https://archive.ics.uci.edu/dataset/437/residential+building+data+set (дата обращения 04.10.2023).
  20. UCI Machine Learning Repository [Электронный ресурс]. – Режим доступа: https://archive.ics.uci.edu/dataset/203/yearpredictionmsd (дата обращения 04.10.2023).

Информация об авторах

Базилевский Михаил Павлович, кандидат технических наук, доцент кафедры математики, Иркутский государственный университет путей сообщения (ФГБОУ ВО ИрГУПС), Иркутск, Россия, ORCID: https://orcid.org/0000-0002-3253-5697, e-mail: mik2178@yandex.ru

Метрики

Просмотров

Всего: 134
В прошлом месяце: 11
В текущем месяце: 2

Скачиваний

Всего: 66
В прошлом месяце: 4
В текущем месяце: 1