Обирання ознак

процедура в машинному навчанні та статистиці

В машинному навчанні та статистиці обира́ння озна́к, відоме також як обира́ння змі́нних, обира́ння атрибу́тів та обира́ння підмножини́ змі́нних (англ. feature selection, variable selection, attribute selection, variable subset selection) — це процес обирання підмножини доречних ознак (змінних, провісників) для використання в побудові моделі. Методики обирання ознак застосовують із декількома цілями:

  • спрощення моделей, щоби зробити їх легшими для інтерпретування дослідниками/користувачами,[1]
  • скорочення тривалостей тренування,
  • уникання прокляття розмірності,
  • покращення узагальнення шляхом зниження перенавчання[2] (формально, зниження дисперсії[1]).

Центральною передумовою при застосуванні методики обирання ознак є те, що дані містять деякі ознаки, що є або надлишковими, або недоречними, і тому їх може бути усунено без спричинення значної втрати інформації.[2] «Надлишкові» та «недоречні» є двома різними поняттями, оскільки одна доречна ознака може бути надлишковою в присутності іншої доречної ознаки, з якою вона сильно корелює.[3]

Методики обирання ознак слід відрізняти від виділяння ознак. Виділяння ознак створює нові ознаки з функцій від первинних ознак, тоді як обирання ознак повертає підмножину ознак.Методики обирання ознак часто використовують у тих областях, де є багато ознак, і порівняно мало зразків (або точок даних). До споконвічних випадків застосування обирання ознак належать аналіз писаних текстів та даних ДНК-мікрочипів, де є багато тисяч ознак, і лише від декількох десятків до сотень зразків.

Введення

Алгоритм обирання ознак можливо розглядати як поєднання методики пошуку для пропонування нових підмножин ознак разом із мірою оцінки, яка встановлює бали різним підмножинам ознак. Найпростішим алгоритмом є перевіряти кожну можливу підмножину ознак, шукаючи таку, яка мінімізує рівень похибки. Це є вичерпним пошуком цим простором, і є обчислювально непіддатливим для будь-яких множин ознак, крім найменших. Вибір оцінювальної метрики сильно впливає на алгоритм, і саме ці оцінювальні метрики відрізняють три основні категорії алгоритмів пошуку ознак: обгорткові, фільтрові та вбудовані методи.[3]

  • Обгорткові методи для встановлення балів підмножинам ознак використовують передбачувальну модель. Кожну нову підмножину використовують для тренування моделі, яку перевіряють на притриманій множині. Підрахунок кількості помилок, зроблених на цій притриманій множині (рівень похибки моделі) дає бал цієї підмножини. Оскільки обгорткові методи тренують нову модель для кожної підмножини, вони є дуже обчислювально напруженими, але зазвичай пропонують множину ознак із найкращою продуктивністю для того окремого типу моделі.
  • Фільтрові методи для встановлення балів підмножинам ознак замість рівня похибки використовують міру-заступницю. Цю міру обирають такою, щоби вона була швидкою, але все ще схоплювала корисність множини ознак. До поширених мір належать взаємна інформація,[3] поточкова взаємна інформація,[4] коефіцієнт кореляції Пірсона, алгоритми на основі Relief[en][5] та внутрішньо/міжкласова відстань або бали критеріїв значущості для кожної комбінації клас/ознака.[4][6] Фільтри зазвичай є менш напруженими обчислювально за обгортки, але вони пропонують набір ознак, що не налаштовано на конкретний тип передбачувальної моделі.[7] Цей брак налаштування означає, що набір ознак від фільтра є загальнішим за набір від обгортки, зазвичай даючи нижчу передбачувальну продуктивність, ніж обгортка. Проте такий набір ознак не містить припущень передбачувальної моделі, і тому є кориснішим для розкриття взаємозв'язків між ознаками. Багато фільтрів пропонують ранжування ознак замість явної найкращої підмножини ознак, а точку відсікання в рангу обирають за допомогою перехресного затверджування. Фільтрові методи також застосовували як передобробний етап для обгорткових методів, роблячи можливим застосування обгорток до більших задач. Одним з інших популярних підходів є алгоритм рекурсивного усунення ознак (англ. Recursive Feature Elimination),[8] зазвичай застосовуваний з методом опорних векторів для повторної побудови моделі та усунення ознак з низькими ваговими коефіцієнтами.
  • Вбудовані методи є всеосяжною групою методик, що виконують обирання ознак як частину процесу побудови моделі. Примірником цього підходу є метод побудови лінійних моделей LASSO[en], який штрафує коефіцієнти регресії штрафом L1, скорочуючи багато з них до нуля. Будь-які ознаки, що мають ненульові коефіцієнти регресії, є «обраними» алгоритмом LASSO. До покращень LASSO належать Bolasso, яке бутстрепує вибірки,[9], еластично-сіткова регуляризація[en], яка поєднує штраф L1 LASSO із штрафом L2 гребеневої регресії, та FeaLect, яке встановлює бали всім ознакам на основі комбінаторного аналізу коефіцієнтів регресії.[10] Ці підходи з погляду обчислювальної складності тяжіють до знаходження між фільтрами та обгортками.

У традиційному регресійному аналізі найпопулярнішим видом обирання ознак є поетапна регресія[en], яка є обгортковою методикою. Це жадібний алгоритм, що під час кожного раунду додає найкращу ознаку (або видаляє найгіршу). Головним питанням у керуванні є вирішування, коли зупинити алгоритм. У машинному навчанні це зазвичай здійснюють за допомогою перехресного затверджування. У статистиці деякі критерії є оптимізованими. Це призводить до проблеми, притаманної вкладеності. Було досліджено надійніші методи, такі як гілки і межі, та кусково-лінійна мережа.

Обирання підмножин

Обирання підмножини оцінює на придатність підмножину ознак як групу. Алгоритми обирання підмножин можливо розділити на обгорткові, фільтрові та вбудовані методи. Обгорткові використовують пошуковий алгоритм для пошуку простором можливих ознак, і оцінки кожної підмножини запуском моделі на ній. Обгортки можуть бути обчислювально витратними, і мати ризик перенавчитися моделі. Фільтри є схожими на обгортки в підході до пошуку, але замість оцінки проти моделі виводять простіший фільтр. Вбудовані методики є вбудованими в модель, і особливими для моделі.

Багато популярних підходів до пошуку використовують жадібний підйом схилом, що ітеративно оцінює кандидата-підмножину ознак, а потім змінює цю підмножину й оцінює, чи є нова підмножина покращенням відносно старої. Оцінка підмножин вимагає оцінкової метрики, що реалізує градацію підмножин ознак. Вичерпний пошук в загальному випадку є непрактичним, тому на певній визначеній реалізатором (або оператором) точці зупинки підмножину ознак із найвищим знайденим до цієї точки балом обирають задовільною підмножиною ознак. Критерій зупинки залежить від алгоритму; до можливих критеріїв належать: перевищення порогу балом підмножини, перевищення максимального допустимого часу виконання програми тощо.

Альтернативні методики на основі пошуку ґрунтуються на націленому пошуку найкращої проєкції[en], який знаходить низькорозмірні проєкції даних, що мають високий бал: тоді обирають ознаки, що мають найбільші проєкції в низькорозмірному просторі.

До пошукових підходів належать:

Двома популярними фільтровими метриками для задач класифікації є кореляція та взаємна інформація, хоча жодна з них не є справжньою метрикою, або «мірою відстані», в математичному сенсі, оскільки вони не підкоряються нерівності трикутника, і відтак не обчислюють жодної дійсної «відстані» — їх слід було би швидше розглядати як «бали». Ці бали обчислюють між ознаками-кандидатами (або наборами ознак) та бажаною категорією виходу. Проте існують і справжні метрики, що є простою функцією взаємної інформації;[19] див. тут.

До інших доступних фільтрових метрик належать:

  • Віддільність класів (англ. class separability)
  • Обирання ознак на основі узгодженості (англ. consistency-based feature selection)
  • Обирання ознак на основі кореляції (англ. correlation-based feature selection)

Критерій оптимальності

Обирання критерію оптимальності є складним, оскільки в завдання обирання ознак є кілька цілей. Багато поширених критеріїв включають міру точності, штрафовану кількістю обраних ознак. До прикладів належать інформаційний критерій Акаіке (ІКА, англ. AIC) та Cp Меллоуза[en], що мають штраф у для кожної доданої ознаки. ІКА ґрунтується на теорії інформації, й практично виводиться з принципу максимуму ентропії[en].[20][21]

Іншими критеріями є баєсів інформаційний критерій (БІК, англ. BIC), що використовує штраф у для кожної доданої ознаки, принцип мінімальної довжини опису (МДО, англ. MDL), що асимптотично використовує , Бонферроні[en] / КРР (англ. RIC), який використовує , обирання ознак максимальної залежності (англ. maximum dependency feature selection) та ряд нових критеріїв, обґрунтованих рівнем хибного виявляння[en] (англ. false discovery rate, FDR), який використовує щось близьке до . Для обирання найвідповіднішої множини ознак можна також використовувати й критерій максимальної ентропійної швидкості.[22]

Навчання структури

Фільтрове обирання ознак є окремим випадком загальнішої парадигми, що називають навчанням структури. Обирання ознак знаходить доречний набір ознак для конкретної цільової змінної, тоді як навчання структури знаходить взаємозв'язки між усіма змінними, зазвичай виражаючи ці взаємозв'язки як граф. Найпоширеніші алгоритми навчання структури виходять із того, що дані було породжено баєсовою мережею, і тому структурою є орієнтована графова модель. Оптимальним розв'язком задачі фільтрового обирання ознак є марковське покриття цільового вузла, і в баєсовій мережі існує єдине марковське покриття для кожного вузла.[23]

Механізми обирання ознак на основі теорії інформації

Існують різні механізми обирання ознак, що для оцінювання різних ознак використовують взаємну інформацію. Вони зазвичай використовують один і той же алгоритм:

  1. Обчислити взаємну інформацію як оцінку між усіма ознаками ( ) та цільовим класом ( )
  2. Обрати ознаку з найвищим балом (наприклад, ), і додати її до набору обраних ознак ( )
  3. Обчислити похідну оцінку, яку може бути виведено із взаємної інформації
  4. Обрати ознаку з найвищим балом, і додати її до набору обраних ознак (наприклад, )
  5. Повторювати 3. та 4., допоки не буде обрано певне число ознак (наприклад, )

Найпростіший підхід як цю «похідну» оцінку використовує власне взаємну інформацію.[24]

Проте існують різні підходи, що намагаються знижувати надлишковість серед ознак.

Обирання ознак мінімальної-надлишковості-максимальної-доречності (mRMR)

Пен та ін.[25] запропонували метод обирання ознак, що може використовувати для обирання ознак або взаємну інформацію, кореляцію, або відстань/бали схожості. Мета полягає у штрафуванні доречності (англ. relevancy) ознаки її надлишковістю (англ. redundancy) в присутності інших обраних ознак. Доречність набору ознак S для класу c визначають усередненим значенням усіх значень взаємної інформації між окремою ознакою fi та класом c таким чином:

.

Надлишковістю всіх ознак у множині S є усереднене значення всіх значень взаємної інформації між ознакою fi та ознакою fj:

Критерій мінімальної-надлишковості-максимальної-доречності (англ. minimum-redundancy-maximum-relevance, mRMR) є поєднанням двох наведених вище мір, і його визначено наступним чином:

Припустімо, що є n ознак повної множини. Нехай xi буде індикаторною функцією членства ознаки fi в множині, такою, що xi=1 показує наявність, а xi=0 показує відсутність ознаки fi в глобально оптимальній множині ознак. Нехай , а . Наведене вище може бути записано як задачу оптимізації:

Алгоритм mRMR є наближенням теоретично оптимального максимально-залежнісного алгоритму обирання ознак, який максимізує взаємну інформацію між спільним розподілом обраних ознак та змінною класифікації. Оскільки mRMR наближує задачу комбінаторної оцінки рядом набагато менших задач, кожна з яких включає лише дві змінні, він таким чином використовує попарні спільні ймовірності, що є надійнішими. В деяких ситуаціях цей алгоритм може недооцінювати корисність ознак, оскільки він не має способу вимірювати взаємодії між ознаками, що можуть збільшувати доречність. Це може призводити до поганої продуктивності,[24] коли ознаки є марними поодинці, але корисними у поєднанні (патологічний випадок трапляється, коли клас є функцією парності[en] ознак). В цілому цей алгоритм є ефективнішим (у термінах кількості потрібної інформації) за теоретично оптимальне максимально-залежнісне обирання, хоча й виробляє набір ознак із невеликою попарною надлишковістю.

mRMR є примірником більшого класу фільтрових методів, які шукають компроміс між доречністю та надлишковістю відмінними шляхами.[24][26]

Обирання ознак квадратичним програмуванням

mRMR є типовим прикладом приростової жадібної стратегії обирання ознак: щойно ознаку було обрано, її не може бути виключено на пізнішому етапі. І хоча mRMR може бути оптимізовано застосуванням рухливого пошуку (англ. floating search) для скорочування деяких ознак, його також може бути переформульовано як задачу глобальної оптимізації квадратичного програмування (англ. quadratic programming feature selection, QPFS) таким чином:[27]

т. щ.

де є вектором доречності ознак, за припущення, що загалом є n ознак, є матрицею попарної надлишковості ознак, а представляє відносні ваги ознак. QPFS розв'язується за допомогою квадратичного програмування. Нещодавно було показано, що QPFS має схильність до ознак із меншою ентропією,[28] тому що воно ставить член самонадлишковості ознаки на діагональ H.

Умовна взаємна інформація

Інша оцінка, що виводять із взаємної інформації, ґрунтується на умовній доречності:[28]

т. щ.

де , а .

Перевага SPECCMI полягає в тому, що воно може розв'язуватися просто знаходженням домінантного власного вектора Q, і тому є дуже масштабовуваним. Також SPECCMI обробляє взаємодії ознак другого порядку.

Спільна взаємна інформація

У дослідженні різних балів Браун та ін.[24] рекомендували як добрий бал для обирання ознак спільну взаємну інформацію.[29] Цей бал намагається знайти ознаку, що додає найбільше нової інформації до вже відомих ознак, щоби уникати надмірності. Цей бал сформульовано наступним чином:

Цей бал використовує умовну взаємну інформацію[en] для оцінювання надмірності між вже обраними ознаками ( ) та досліджуваною ознакою ( ).

Обирання ознак на основі LASSO критерію незалежності Гільберта-Шмідта

Для даних із високою розмірністю та малою вибіркою (наприклад, розмірність > 105, а кількість зразків < 103) корисним є LASSO[en] критерію незалежності Гільберта-Шмідта (англ. Hilbert-Schmidt Independence Criterion Lasso, HSIC Lasso).[30] Задачу оптимізації HSIC Lasso задають як

т. щ.

де є мірою незалежності на ядровій основі, що називають (емпіричним) критерієм незалежності Гільберта-Шмідта (англ. Hilbert-Schmidt independence criterion, HSIC), позначає слід, є регуляризаційним параметром, та є центрованими матрицями Ґрама входу та виходу, та є матрицями Ґрама, та є ядровими функціями, є центрувальною матрицею, є m-вимірною одиничною матрицею (m — кількість зразків), є m-вимірним вектором з усіма одиницями, а є -нормою. HSIC завжди набуває невід'ємного значення, і є нулем тоді й лише тоді, коли дві випадкові змінні є статистично незалежними при використанні універсального відтворювального ядра, такого як ґаусове.

HSIC Lasso також може бути записано як

т. щ.

де є нормою Фробеніуса. Ця задача оптимізації є задачею LASSO[en], і відтак її можливо ефективно розв'язувати передовим розв'язувачем LASSO, таким як подвійний метод розширеного Лагранжіана[en].

Кореляційне обирання ознак

Міра кореляційного обирання ознак (англ. Correlation Feature Selection, CFS) оцінює підможину ознак на основі наступної гіпотези: «Добрі підмножини ознак містять ознаки, високо корельовані з класифікацією, але некорельовані між собою».[31][32] Наступне рівняння задає якість підмножини ознак S, що складається із k ознак:

Тут є усередненим значенням усіх кореляцій ознака-класифікація, а є усередненим значенням усіх кореляцій ознака-ознака. Критерій CFS визначають наступним чином:

Змінні та називають кореляціями, але вони не обов'язково є коефіцієнтами кореляції Пірсона або ρ Спірмена. Дисертація доктора Марка Голла (англ. Mark Hall) не використовує жодного з цих, але використовує три відмінні міри пов'язаності, мінімальну довжину опису (англ. minimum description length, MDL), симетричну невизначеність та relief[en].

Нехай xi буде індикаторною функцією членства ознаки fi; тоді наведене вище може бути переписано як задачу оптимізації:

Комбінаторні задачі вище є, фактично, задачами змішаного двійкового лінійного програмування, які можливо розв'язувати застосуванням алгоритмів гілок та меж.[33]

Регуляризовані дерева

Ознаки з дерева або ансамблю дерев рішень виявляються надлишковими. Для обирання підмножини ознак можливо застосовувати нещодавній метод, названий регуляризованим деревом.[34] Регуляризовані дерева здійснюють штрафування, використовуючи для розділення поточного вузла змінну, подібну до змінних, вибраних на попередніх вузлах дерева. Регуляризовані дерева потребують побудови лише однієї деревної моделі (або однієї моделі ансамблю дерев), і, отже, є обчислювально ефективними.

Регуляризовані дерева природно обробляють числові та категорійні ознаки, взаємодії та нелінійності. Вони є інваріантними відносно масштабів (одиниць виміру) атрибутів та нечутливими до викидів, і, таким чином, вимагають незначної попередньої обробки даних, такої як нормалізація[en]. Одним із типів регуляризованих дерев є регуляризований випадковий ліс (РВЛ, англ. Regularized random forest, RRF).[35] Цей керований РВЛ є розширеним РВЛ, що керується балами важливості зі звичайного випадкового лісу.

Огляд метаевристичних методів

Метаевристика є загальним описом алгоритму, присвяченого розв'язанню складних (зазвичай, NP-складних) задач оптимізації, для яких не існує класичних методів розв'язання. Загалом, метаевристика є стохастичним алгоритмом, який веде до досягнення глобального оптимуму. Існує багато метаевристик, від простого локального пошуку, і до алгоритму складного глобального пошуку.

Головні принципи

Методи обирання ознак зазвичай представляють трьома класами на основі того, як вони поєднують алгоритм обирання та побудову моделі.

Фільтровий метод

Фільтровий метод обирання ознак

Методи фільтрового типу обирають змінні незалежно від моделі. Вони ґрунтуються лише на загальних ознаках, таких як кореляція з передбачуваною змінною. Фільтрові методи придушують найменш цікаві змінні. Інші змінні будуть частиною моделі класифікації або регресії, яку застосовують для класифікування або передбачення даних. Ці методи є особливо ефективними з точки зору обчислювального часу, та стійкими до перенавчання.[36]

Фільтрові методи схильні обирати надлишкові змінні, коли вони не беруть до уваги взаємовідношення між змінними. Проте більш продумані функції, такі як алгоритм FCBF,[37] намагаються й мінімізують цю проблему шляхом усування сильно корельованих між собою змінних.

Обгортковий метод

Обгортковий метод обирання ознак

Обгорткові методи оцінюють підмножини змінних, що дозволяє, на відміну від фільтрових підходів, виявляти можливі взаємодії між змінними.[38] Двома головними недоліками цих методів є:

  • Підвищення ризику перенавчання за недостатньої кількості спостережень.
  • Значний обчислювальний час за великої кількості змінних.

Вбудований метод

Вбудований метод обирання ознак

Нещодавно було запропоновано вбудовані методи, які намагаються поєднувати переваги обох попередніх методів. Алгоритм навчання отримує перевагу від свого власного процесу обирання змінних, і виконує обирання ознак та класифікування одночасно, як це робить алгоритм FRMT.[39]

Застосування метаевристик обирання ознак

Це огляд застосувань метаевристик обирання ознак, що останнім часом використовували в літературі. Цей огляд було реалізовано Дж. Геммон (англ. J. Hammon) в її дисертації 2013 року.[36]

ЗастосуванняАлгоритмПідхідкласифікаторОцінна функціяПосилання
ОНПОбирання ознак за схожістюФільтрr2Phuong 2005[38]
ОНПГенетичний алгоритмОбгорткаДерево рішеньТочність класифікації (10-кратна)Shah 2004[40]
ОНППідйом схиломФільтр + обгорткаНаївний баєсівPredicted residual sum of squaresLong 2007[41]
ОНПІмітація відпалуНаївний баєсівТочність класифікації (5-кратна)Ustunkar 2011[42]
Мовна сегментаціяМурашиний алгоритмОбгорткаШтучна нейронна мережаСКПAl-ani 2005 [джерело?]
МаркетингІмітація відпалуОбгорткаРегресіяІКА, r2Meiri 2006[43]
ЕкономікаІмітація відпалу, генетичний алгоритмОбгорткаРегресіяБІКKapetanios 2005[44]
Спектральна масаГенетичний алгоритмОбгорткаМножинна лінійна регресія, частинні найменші квадрати[en]Коренева середньоквадратична похибка[en] передбаченняBroadhurst 2007[45]
СпамДвійковий МРЧ + мутація[en]ОбгорткаДерево рішеньЗважені витратиZhang 2014[15]
МікрочипиТабу-пошук + МРЧОбгорткаМетод опорних векторів, k найближчих сусідівЕвклідова відстаньChuang 2009[46]
МікрочипиМРЧ + генетичний алгоритмОбгорткаМетод опорних векторівТочність класифікації (10-кратна)Alba 2007[47]
МікрочипиГенетичний алгоритм + ітеративний локальний пошук[en]ВбудованийМетод опорних векторівТочність класифікації (10-кратна)Duval 2009[48]
МікрочипиІтеративний локальний пошукОбгорткаРегресіяАпостеріорна ймовірністьHans 2007[49]
МікрочипиГенетичний алгоритмОбгорткаk найближчих сусідівТочність класифікації (перехресне затверджування з виключенням по одному)Jirapech-Umpai 2005[50]
МікрочипиГібридний генетичний алгоритм[en]Обгорткаk найближчих сусідівТочність класифікації (перехресне затверджування з виключенням по одному)Oh 2004[51]
МікрочипиГенетичний алгоритмОбгорткаМетод опорних векторівЧутливість і специфічністьXuan 2011[52]
МікрочипиГенетичний алгоритмОбгорткаПовноспарований метод опорних векторівТочність класифікації (перехресне затверджування з виключенням по одному)Peng 2003[53]
МікрочипиГенетичний алгоритмВбудованийМетод опорних векторівТочність класифікації (10-кратна)Hernandez 2007[54]
МікрочипиГенетичний алгоритмГібриднийМетод опорних векторівТочність класифікації (перехресне затверджування з виключенням по одному)Huerta 2006[55]
МікрочипиГенетичний алгоритмМетод опорних векторівТочність класифікації (10-кратна)Muni 2006[56]
МікрочипиГенетичний алгоритмОбгорткаМетод опорних векторівEH-DIALL, CLUMPJourdan 2004[57]
Хвороба Альцгеймераt-перевірка Велша[en]ФільтрЯдровий метод опорних векторівТочність класифікації (10-кратна)Zhang 2015[58]
Комп'ютерне баченняНескінченне обирання ознакФільтрНезалежнийУсереднена чіткість[en], ППК РХПRoffo 2015[59]
МікрочипиВО центральністю власного вектораФільтрНезалежнийУсереднена чіткість, Точність, ППК РХПRoffo & Melzi 2016[60]
XMLСиметрична Тау (англ. ST)ФільтрСтруктурна асоціативна класифікаціяТочність, ПокриттяShaharanee & Hadzic 2014

Обирання ознак, вбудоване до алгоритмів навчання

Деякі алгоритми навчання виконують обирання ознак як частину своєї загальної роботи. До них належать:

  • Методики -регуляризації, такі як розріджена регресія, LASSO[en], та -МОВ
  • Регуляризовані дерева,[34] наприклад, регуляризований випадковий ліс, втілений у пакеті RRF[35]
  • Дерева рішень[61]
  • Меметичний алгоритм[en]
  • Випадковий поліноміальний логіт[en] (англ. Random multinomial logit, RMNL)
  • Автокодувальні мережі з рівнем — вузьким місцем
  • Субмодулярне[en] обирання ознак[62][63][64]
  • Обирання ознак на основі локального навчання.[65] В порівнянні з традиційними методами, він не передбачає жодного евристичного пошуку, може легко впоруватися з полікласовими задачами, і працює як для лінійних, так і для нелінійних задач. Він також підтримується сильним теоретичним підґрунтям. Чисельні експерименти показали, що цей метод може досягати близького до оптимального розв'язку навіть коли дані містять понад мільйон недоречних ознак.

Див. також

Примітки

Література

Посилання

🔥 Top keywords: Головна сторінкаЧемпіонат Європи з футболу 2024Спеціальна:ПошукВікіпедія:Культурна спадщина та видатні постаті (2024)Збірна України з футболуБріджертониЧемпіонат Європи з футболу 2020YouTubeУкраїнаЧемпіонат Європи з футболуЗбірна Румунії з футболуРебров Сергій СтаніславовичГлобальний саміт мируРадіо «Свобода»ДефолтРумуніяЛунін Андрій ОлексійовичНаціональна суспільна телерадіокомпанія УкраїниДень батькаДовбик Артем ОлександровичШевченко Андрій МиколайовичЯрмоленко Андрій МиколайовичЧемпіонат Європи з футболу 2024 (кваліфікаційний раунд)Мудрик Михайло Петрович138-ма зенітна ракетна бригада (Україна)FacebookЄрмак Андрій БорисовичСексВійськові звання України22-га окрема механізована бригада (Україна)Зінченко Олександр ВолодимировичТериторіальний центр комплектування та соціальної підтримкиДумками навиворіт 2Чемпіонат Європи з футболу 2016Список операторів систем розподілу України2024 у телебаченніMegogoСписок українських жіночих іменКиїв