Маши́нне навча́ння (МН, англ. machine learning, ML) — це галузь досліджень штучного інтелекту, зосереджена на розробці та вивченні [en], здатних навчатися з даних і узагальнюватися на небачені дані, й відтак виконувати завдання без явних інструкцій. Породжувальні штучні нейронні мережі нещодавно змогли перевершити за продуктивністю багато попередніх підходів.
Підходи машинного навчання застосовували до багатьох галузей, серед яких великі мовні моделі, комп'ютерне бачення, розпізнавання мовлення, фільтрування електронної пошти, сільське господарство та медицина, де розробка алгоритмів для виконання необхідних завдань була би занадто витратною. МН відоме у своєму застосуванні в комерційних задачах під назвою [en]». Хоч і не все машинне навчання ґрунтується на статистиці, [en] є важливим джерелом методів цієї галузі.
Математичні основи МН забезпечують методи математичної оптимізації (математичного програмування). Добування даних (англ. data mining) — це пов'язане (паралельне) поле досліджень, зосереджене на розвідувальному аналізі даних через некероване навчання. З точки зору теорії, систему для опису машинного навчання забезпечує імовірно приблизно коректне навчання.
Історія та зв'язки з іншими галузями
Термін «машинне навчання» (англ. machine learning) запровадив 1959 року Артур Семюель, працівник IBM та піонер у галузі комп'ютерних ігор та штучного інтелекту. В цей період також використовували й синонім самонавчальні комп'ютери (англ. self-teaching computers).
Хоч найранішу модель машинного навчання й представили в 1950-х роках, коли Артур Семюель винайшов програму, що обчислювала шанси на перемогу в шашках для кожної зі сторін, історія машинного навчання сягає десятиліть людського бажання й зусиль досліджувати людські когнітивні процеси. 1949 року канадський психолог Дональд Гебб опублікував книгу [en]», в якій він запропонував теоретичну нейронну структуру, утворювану певними взаємодіями нейронів. Геббова модель взаємодії нейронів між собою заклала основу того, як працюють алгоритми ШІ та машинного навчання на рівні вузлів, або штучних нейронів, які комп'ютери використовують для передавання даних. Інші дослідники, які досліджували людські когнітивні системи, також зробили свій внесок до сучасних технологій машинного навчання, серед них логік [en] та Воррен Маккалох, які запропонували ранні математичні моделі нейронних мереж для розробки алгоритмів, що імітують процеси людського мислення.
На початку 1960-х років компанія Raytheon розробила експериментальну «самонавчальну машину» (англ. "learning machine") з пам'яттю на перфострічці під назвою «Кібертрон» (англ. Cybertron) для аналізу гідроакустичних сигналів, електрокардіограм та зразків мовлення за допомогою зародкового навчання з підкріпленням. Людина-оператор/вчитель циклічно «тренувала» її розпізнавати закономірності за допомогою кнопки «ляп» (англ. "goof"), щоби змушувати переоцінювати неправильні рішення. Репрезентативною книгою про дослідження машинного навчання в 1960-х роках була книга Нільссона про самонавчальні машини, присвячена переважно машинному навчанню для класифікування образів. Зацікавлення, пов'язане з розпізнаванням образів, тривало і в 1970-х роках, як описано Дудою та Гартом 1973 року. 1981 року було зроблено доповідь про використання стратегій навчання, щоби нейронна мережа навчилася розпізнавати 40 символів (26 літер, 10 цифр та 4 спеціальні символи) з комп'ютерного терміналу.
Том Мітчелл надав широко цитоване, формальніше визначення алгоритмів, досліджуваних у галузі машинного навчання: «Кажуть, що комп'ютерна програма вчиться з досвіду E щодо деякого класу завдань T та міри продуктивності P, якщо її продуктивність у завданнях з T, вимірювана P, покращується з досвідом E.» Це визначення завдань, що стосуються машинного навчання, пропонує принципово операційне визначення, замість визначання цієї галузі в когнітивних термінах. Це відповідає пропозиції Алана Тюрінга в його статті [en]», в якій питання «Чи можуть машини мислити?» замінюється запитанням «Чи можуть машини робити те, що можемо робити ми (як мислячі істоти)?».
Сучасне машинне навчання має дві мети: одна — класифікувати дані на основі розроблених моделей, інша — передбачувати майбутні результати на основі цих моделей. Гіпотетичний алгоритм для класифікування даних може використовувати бачення комп'ютером родимок у поєднанні з керованим навчанням, щоби навчити його класифікувати ракові родимки. Алгоритм машинного навчання для біржової торгівлі може інформувати трейдера про майбутні потенційні прогнози.
Штучний інтелект
Як науковий напрям, машинне навчання виросло з пошуків штучного інтелекту (ШІ, англ. artificial intelligence, AI). В часи юності ШІ як академічної дисципліни деякі дослідники були зацікавлені в тому, щоби машини навчалися з даних. Вони намагалися підійти до цієї задачі різними символьними методами, а також тим, що згодом назвали «нейронними мережами», — це були здебільшого перцептрони та інші моделі, які пізніше виявилися перевинаходами [en] статистики. Застосовували також і ймовірнісне міркування, особливо в [en].
Проте посилення акценту на [en], спричинило розрив між ШІ та машинним навчанням. Імовірнісні системи страждали на теоретичні та практичні проблеми збирання та подання даних. Близько 1980 року прийшли експертні системи, щоби домінувати над ШІ, а статистика була в немилості. Робота над навчанням на основі символів/знань таки продовжувалася в межах ШІ, ведучи до [en], але статистичніший напрямок досліджень був тепер за межами області власне ШІ, у розпізнаванні образів та інформаційному пошуку. Приблизно в цей же час ШІ та інформатикою було облишено дослідження нейронних мереж. Цей напрямок також було продовжено за межами області ШІ/інформатики, як «конекціонізм», дослідниками з інших дисциплін, включно з Гопфілдом, Румельхартом та Гінтоном. Їхній головний успіх прийшов у середині 1980-х років із повторним винайденням зворотного поширення.
Машинне навчання (МН), реорганізоване та визнане як окрема галузь, почало процвітати в 1990-х роках. Ця галузь змінила свою мету з досягнення штучного інтелекту на розв'язання розв'язних задач практичного характеру. Вона змістила фокус із [en], успадкованих нею від ШІ, в бік методів та моделей, запозичених зі статистики, нечіткої логіки та теорії ймовірностей.
Добування даних
Машинне навчання та добування (розро́блення) даних часто використовують одні й ті ж методи, і значно перекриваються, але в той час як машинне навчання зосереджується на передбачуванні на основі відомих властивостей, вивчених із тренувальних даних, добування (розро́блення) даних зосереджується на відкриванні невідомих (раніше) властивостей в даних (це крок аналізу відкривання знань у базах даних). Добування даних використовує багато методів машинного навчання, але з іншими цілями; з іншого боку, машинне навчання також використовує методи добування даних як «некероване навчання» або як крок попередньої обробки для покращення точності механізму навчання. Велика частина плутанини між цими двома дослідницькими спільнотами (які часто мають окремі конференції та окремі журнали, з [en] як основним винятком) виходить з основних припущень, з якими вони працюють: у машинному навчанні продуктивність зазвичай оцінюють з огляду на здатність відтворювати відомі знання, тоді як у відкриванні знань та добуванні даних (англ. knowledge discovery and data mining, KDD) ключовим завданням є відкриття раніше невідомих знань. При оцінюванні відносно відомих знань неінформований (некерований) метод легко програватиме іншим керованим методам, тоді як у типовому завданні KDD використовувати керовані методи неможливо через відсутність тренувальних даних.
Машинне навчання також має тісні зв'язки з оптимізацією: багато задач навчання формулюють як мінімізацію деякої функції втрат на тренувальному наборі прикладів. Функції втрат виражають розбіжність між передбаченнями тренованої моделі та дійсними примірниками задачі (наприклад, у класифікуванні потрібно призначувати мітки зразкам, і моделі тренуються правильно передбачувати попередньо призначені мітки набору прикладів).
Узагальнювання
Відмінність між оптимізацією та машинним навчанням постає через мету [en]: в той час як алгоритми оптимізації можуть мінімізувати втрати на тренувальному наборі, машинне навчання займається мінімізуванням втрат на небачених зразках. Характеризування узагальнювання різних алгоритмів навчання це активна тема поточних досліджень, особливо для алгоритмів глибокого навчання.
Статистика
Машинне навчання та статистика — це тісно пов'язані галузі з погляду методів, але відмінні у своїй головній меті: статистика робить висновки про загальну сукупність із вибірки, тоді як машинне навчання знаходить узагальнювальні передбачувальні схеми. За словами [en], ідеї машинного навчання, від методологічних принципів до теоретичних інструментів, мали довгу передісторію в статистиці. Він також запропонував для позначення всеосяжної галузі термін «наука про дані» (англ. data science).
Традиційний статистичний аналіз вимагає апріорного вибору моделі, яка найбільше підходить для набору даних дослідження. Крім того, до аналізу залучають лише суттєві та теоретично доречні змінні на основі попереднього досвіду. Машинне навчання, навпаки, не будується на попередньо структурованій моделі; скоріше, це дані формують модель, виявляючи закономірності, що лежать у їхній основі. Що більше змінних (входів) використовують для тренування моделі, то точнішою буде остаточна модель.
[en] виділив дві парадигми статистичного моделювання: модель даних, та алгоритмічну модель, де «алгоритмічна модель» (англ. "algorithmic model") означає більш-менш алгоритми машинного навчання, такі як випадковий ліс.
Деякі фахівці зі статистики перейняли методи з машинного навчання, що призвело до об'єднаної області, яку вони називають статистичним навчанням (англ. statistical learning).
Статистична фізика
Аналітичні та обчислювальні методики, що походять з глибоко вкоріненої фізики невпорядкованих систем, можливо поширювати на великомасштабні задачі, включно з машинним навчанням, наприклад, для аналізу простору ваг глибоких нейронних мереж. Статистична фізика відтак знаходить застосування в галузі медичної діагностики.
Теорія
Центральна мета системи, яка навчається, — це робити узагальнення зі свого досвіду. Узагальнення в цьому контексті — це здатність машини, що вчиться, працювати точно на нових, небачених прикладах/завданнях після отримання досвіду навчального набору даних. Тренувальні приклади походять з якогось загалом невідомого розподілу ймовірності (який вважають представницьким для простору випадків), і система, що вчиться, має побудувати загальну модель цього простору, яка дозволяє їй виробляти достатньо точні передбачення в нових випадках.
Обчислювальний аналіз алгоритмів машинного навчання та їхньої продуктивності — це розділ теоретичної інформатики, знаний як [en] через модель імовірно приблизно коректного навчання (англ. Probably Approximately Correct Learning, PAC). Оскільки тренувальні набори скінченні, а майбутнє непевне, теорія навчання зазвичай не дає гарантій продуктивності алгоритмів. Натомість доволі поширені ймовірнісні рамки продуктивності. Одним зі способів кількісного оцінювання похибки узагальнювання є розклад на зміщення та дисперсію (англ. bias–variance decomposition).
Для найкращої продуктивності в контексті узагальнювання складність гіпотези повинна відповідати складності функції, що лежить в основі даних. Якщо гіпотеза менш складна, ніж ця функція, то модель недостатньо допасувалася до даних. Якщо у відповідь складність моделі підвищувати, то похибка тренування знижуватиметься. Але якщо гіпотеза занадто складна, то модель піддається перенавчанню, й узагальнення буде гіршим.
На додачу до рамок продуктивності, теоретики навчання досліджують часову складність та здійсненність навчання. В теорії обчислювального навчання обчислення вважають здійсненним, якщо його можливо виконати за поліноміальний час. Існує два види результатів часової складності: Позитивні результати показують, що певного класу функцій може бути навчено за поліноміальний час. Негативні результати показують, що певних класів за поліноміальний час навчено бути не може.
Підходи
Підходи машинного навчання традиційно поділяють на три великі категорії, які відповідають парадигмам навчання, залежно від природи «сигналу» або «зворотного зв'язку», доступного системі навчання:
- Кероване навчання (англ. supervised learning): комп'ютер знайомлять зі зразками входів та їхніх бажаних виходів, наданих «вчителем», а метою є навчитися загального правила, яке [en] входи на виходи.
- Некероване навчання (англ. unsupervised learning): алгоритмові навчання не надають міток, залишаючи йому самостійно знаходити структуру у вході. Некероване навчання може бути метою саме по собі (виявляння прихованих закономірностей у даних), або засобом досягнення мети (навчання ознак).
- Навчання з підкріпленням (англ. reinforcement learning): комп'ютерна програма взаємодіє з динамічним середовищем, у якому вона мусить виконувати певну мету (наприклад, керувати транспортним засобом або грати у гру проти суперника). З переміщенням у просторі задачі, програмі надають зворотний зв'язок, аналогічний винагородам, які вона намагається максимізувати.
Хоча переваги й обмеження має кожен з алгоритмів, жоден алгоритм не працює для всіх задач.
Кероване навчання
Алгоритми керованого навчання (англ. supervised learning) будують математичну модель набору даних, який містить як входи, так і бажані виходи. Такі дані знані як тренувальні дані, й складаються з набору тренувальних прикладів. Кожен тренувальний приклад має один або кілька входів та бажаний вихід, відомий також як керівний сигнал (англ. supervisory signal). У математичній моделі кожен тренувальний приклад подано масивом, або вектором, який іноді називають вектором ознак, а тренувальні дані подано матрицею. Завдяки ітераційній оптимізації цільової функції алгоритми керованого навчання навчаються функції, яку можливо використовувати для передбачування виходу, пов'язаного з новими входами. Оптимальна функція дозволяє алгоритмові правильно визначати вихід для входів, які не були частиною тренувальних даних. Кажуть, що алгоритм, який з часом удосконалює точність своїх виходів або передбачень, навчився виконувати це завдання.
До типів алгоритмів керованого навчання належать [en], класифікування та регресія. Алгоритми класифікування використовують, коли виходи обмежено вузьким набором значень, а алгоритми регресії використовують, коли виходи можуть мати будь-яке числове значення в межах якогось діапазону. Як приклад, для алгоритму класифікування, який фільтрує електронні листи, входом буде вхідний електронний лист, а виходом — назва теки, до якої потрібно цей електронний лист зберегти.
[en] (англ. similarity learning) — це галузь керованого машинного навчання, тісно пов'язана з регресією та класифікуванням, але яка має на меті вчитися з прикладів, використовуючи функцію подібності, що вимірює, наскільки схожі або пов'язані два об'єкти. Воно має застосування в ранжуванні, рекомендаційних системах, візуальному відстежуванні ідентичності, перевірці облич та перевірці мовця.
Некероване навчання
Алгоритми некерованого навчання (англ. unsupervised learning) знаходять структури в даних, які не було мічено, класифіковано чи категоризовано. Замість реагувати на зворотний зв'язок, алгоритми некерованого навчання встановлюють спільні риси в даних і реагують на наявність або відсутність таких спільних рис у кожній новій одиниці даних. До основних застосувань некерованого машинного навчання належать кластерування, знижування розмірності та оцінювання густини. Алгоритми некерованого навчання також оптимізували процес встановлювання великих [en] потрібного гена з [en] на основі [en].
Кластерний аналіз (англ. cluster analysis) — це розподіл набору спостережень на підмножини (звані кластерами), щоби спостереження в одному кластері були подібними відповідно до одного або кількох заздалегідь встановлених критеріїв, тоді як спостереження, взяті з різних кластерів, були несхожими. Різні методики кластерування роблять різні припущення щодо структури даних, які часто визначають деякою мірою подібності (англ. similarity metric) та оцінюють, наприклад, за внутрішньою компактністю (англ. internal compactness), або подібністю членів одного кластера, та відокремленістю (англ. separation), різницею між кластерами. Інші методи ґрунтуються на оцінюваній густині (англ. estimated density) та графовій зв'язності (англ. graph connectivity).
Напівкероване навчання
Напівкероване навчання (англ. semi-supervised learning) перебуває між некерованим навчанням (без будь-яких мічених тренувальних даних) та керованим навчанням (з повністю міченими тренувальними даними). Деякі тренувальні приклади позбавлені тренувальних міток, але багато дослідників машинного навчання виявили, що немічені дані, якщо їх використовувати разом із невеликою кількістю мічених даних, можуть значно підвищувати точність навчання.
У слабокерованім навчанні тренувальні мітки зашумлені, обмежені або неточні; проте ці мітки часто дешевше отримувати, що дає більші ефективні тренувальні набори.
Навчання з підкріпленням
Навчання з підкріпленням (англ. reinforcement learning) — це галузь машинного навчання, пов'язана з тим, як програмні агенти повинні виконувати дії в середовищі, щоби максимізувати певне уявлення про сукупну винагороду. Завдяки її загальності цю галузь вивчають у багатьох інших дисциплінах, таких як теорія ігор, теорія керування, дослідження операцій, теорія інформації, оптимізація на основі моделювання, багатоагентні системи, ройовий інтелект, статистика та генетичні алгоритми. У навчанні з підкріпленням середовище зазвичай подають як марковський процес вирішування (МПВ, англ. markov decision process, MDP). Багато алгоритмів навчання з підкріпленням використовують методики динамічного програмування. Алгоритми навчання з підкріпленням не виходять зі знання точної математичної моделі МПВ, і їх використовують, коли точні моделі недосяжні. Алгоритми навчання з підкріпленням використовують в автономних транспортних засобах та в навчанні гри проти людини-супротивника.
Знижування розмірності
Знижування розмірності (англ. dimensionality reduction) — це процес зниження кількості випадкових змінних, які розглядають, шляхом отримання набору провідних змінних (англ. principal variables). Іншими словами, це процес зниження розмірності набору ознак, яку також називають «кількістю ознак» (англ. "number of features"). Більшість методик знижування розмірності можливо розглядати як усунення або виділяння ознак. Одним із популярних методів знижування розмірності є метод головних компонент (МГК, англ. principal component analysis, PCA). МГК включає перенесення даних більшої розмірності (наприклад, тривимірних) до меншого простору (наприклад, двовимірного). Це дає меншу розмірність даних (двовимірні замість тривимірних), зберігаючи всі первинні змінні в моделі без зміни даних.[en] пропонує ідею розташування багатовимірних наборів даних уздовж низьковимірних многовидів, і багато методик знижування розмірності виходять із цього припущення, що веде до області [en] та [en].
Інші види
Було розроблено й інші підходи, які не вписуються в ці три категорії, й іноді одна система машинного навчання використовує декілька з них. Наприклад, тематичне моделювання, метанавчання.
Самонавчання
Самонавчання (англ. self-learning), як парадигму машинного навчання, було запропоновано 1982 року разом із нейронною мережею, здатною до самонавчання, яка отримала назву поперечинного адаптивного масиву (ПАМ, англ. crossbar adaptive array, CAA). Це навчання без зовнішніх винагород і без зовнішніх порад вчителя. Алгоритм самонавчання ПАМ обчислює, поперечинним чином, як рішення щодо дій, так і емоції (почуття) щодо наслідкових ситуацій. Ця система керується взаємодією між пізнанням та емоціями.
Алгоритм самонавчання уточнює матрицю пам'яті W =||w(a, s)||, виконуючи в кожній ітерації наступну процедуру машинного навчання:
- у ситуації s виконати дію a
- отримати наслідкову ситуацію s'
- обчислити емоції перебування в наслідковій ситуації v(s')
- уточнити поперечинну пам'ять w'(a, s) = w(a, s) + v(s')
Це система лише з одним входом, ситуацією, та лише одним виходом, дією (або поведінкою) a. Немає ані окремого введення підкріплення, ані введення поради від середовища. Поширюване зворотно значення (вторинне підкріплення, англ. secondary reinforcement) — це емоція щодо наслідкової ситуації. ПАМ існує у двох середовищах: одне — це поведінкове середовище, в якому вона поводиться, а інше — це генетичне середовище, звідки вона спочатку й лише один раз отримує початкові емоції щодо ситуацій, з якими можливо зіткнутися в поведінковому середовищі. Після отримання геномного (видового) вектора з генетичного середовища ПАМ навчається цілеспрямованої поведінки в середовищі, що містить як бажані, так і небажані ситуації.
Навчання ознак
Кілька алгоритмів навчання спрямовано на виявляння кращих подань даних входу, які надходять під час тренування. До класичних прикладів належать метод головних компонент і кластерний аналіз. Алгоритми навчання ознак (англ. feature learning), також звані алгоритмами навчання подань (англ. representation learning), часто намагаються зберігати інформацію своїх вхідних даних, але також перетворювати її таким чином, щоби робити її корисною, часто як етап попередньої обробки перед виконанням класифікування або передбачень. Ця методика уможливлює відбудовування даних входу, що надходять із невідомого розподілу, який породжує ці дані, не обов'язково дотримуючись конфігурацій, неправдоподібних для цього розподілу. Це замінює конструювання ознак вручну та дозволяє машині як навчатися ознак, так і використовувати їх для виконання конкретного завдання.
Навчання ознак може бути керованим або некерованим. У керованім навчанні ознак їх навчають з використанням мічених даних входу. До прикладів належать штучні нейронні мережі, багатошарові перцептрони та кероване [en]. При некерованім навчанні ознак їх навчають неміченими даними входу. До прикладів належать навчання словників, [en], автокодувальники, розкладання матриць та різні види кластерування.
Алгоритми [en] намагаються робити це за обмеження, щоби навчене подання мало низьку розмірність. Алгоритми розрідженого кодування намагаються робити це за обмеження, щоби навчене подання було розрідженим, тобто щоби математична модель містила багато нулів. Алгоритми [en] спрямовано на навчання подань низької розмірності безпосередньо з тензорних подань для багатовимірних даних без переформовування їх у вектори вищої розмірності. Алгоритми глибокого навчання виявляють декілька рівнів подання, або ієрархію ознак із абстрактнішими ознаками вищого рівня, визначеними в термінах ознак нижчого рівня (або породжуваними ними). Стверджували, що розумна машина — це така, що навчається подання, яке розплутує чинники мінливості (англ. factors of variation), що лежить в основі даних, які пояснюють спостережувані дані.
Навчання ознак спонукається фактом, що завдання машинного навчання, такі як класифікування, часто вимагають даних входу, математично та обчислювально зручних для обробки. Проте дані реального світу, такі як зображення, відео та давачеві дані, не піддалися спробам визначити конкретні ознаки алгоритмічно. Альтернативою є виявляти такі ознаки або подання шляхом дослідження, не покладаючись на явні алгоритми.
Навчання розріджених словників
Навчання розріджених словників (англ. sparse dictionary learning) — це метод навчання ознак, у якому тренувальний приклад подають лінійною комбінацією базисних функцій і вважають розрідженою матрицею. Цей метод [en] і його важко розв'язувати наближено. Популярний евристичний метод навчання розріджених словників — алгоритм [en] (англ. K-SVD). Навчання розріджених словників застосовували в кількох контекстах. У класифікуванні задача полягає у визначенні класу, до якого належить раніше небачений тренувальний приклад. Для словника, де кожен клас уже побудовано, новий тренувальний приклад пов'язується з класом, у словнику якого його розріджено подано найкраще. Навчання розріджених словників також застосовували для знешумлювання зображень. Ключова ідея полягає в тому, що чистий клаптик зображення може бути розріджено подано словником зображень, а шум — ні.
Виявляння аномалій
У добуванні даних виявляння аномалій (англ. anomaly detection), відоме також як виявляння викидів (англ. outlier detection), — це встановлювання рідкісних елементів, подій або спостережень, що викликають підозри, значно відрізняючись від більшості даних. Зазвичай аномальні елементи подають такі проблеми як [en], структурний дефект, медичні проблеми або помилки в тексті. Аномалії називають викидами (англ. outliers), новизною (англ. novelties), шумом, відхиленнями або винятками.
Зокрема, в контексті виявляння зловживань і мережних вторгнень цікаві об'єкти це часто не рідкісні об'єкти, а несподівані сплески бездіяльності. Ця особливість поведінки не відповідає загальноприйнятому статистичному визначенню викиду як рідкісного об'єкта. Багато методів виявляння викидів (зокрема, некеровані алгоритми) дадуть збій на таких даних, якщо їх не агрегувати належним чином. Натомість алгоритм кластерного аналізу може виявити мікрокластери, утворені цими особливостями поведінки.
Існує три великі категорії методик виявляння аномалій. Методики некерованого виявляння аномалій виявляють аномалії в неміченому наборі випробувальних даних за припущення, що більшість примірників у наборі даних нормальні, шляхом пошуку примірників, які видаються найменш допасованими до решти набору даних. Методики керованого виявляння аномалій вимагають набору даних, мічених як «нормально» й «ненормально», і залучають навчання класифікатора (ключова відмінність від багатьох інших задач статистичного класифікування полягає в незбалансованій природі виявляння викидів). Методики напівкерованого виявляння аномалій створюють модель, що подає нормальну поведінку, на основі заданого нормального набору тренувальних даних, а потім перевіряють правдоподібність створення моделлю випробувального примірника.
Навчання роботів
Навчання роботів натхнено безліччю методів машинного навчання, починаючи від керованого навчання, навчання з підкріпленням, і закінчуючи метанавчанням (наприклад, моделеагностичним метанавчанням, МАМН, англ. MAML).
Асоціативні правила
Навчання асоціативних правил (англ. association rule learning) — це метод машинного навчання на основі правил для виявляння взаємозв'язків між змінними у великих базах даних. Його призначено для визначання сильних правил, виявлених у базах даних, з використанням певної міри «цікавості» (англ. "interestingness").
Машинне навчання на основі правил (англ. rule-based machine learning) — це загальний термін для будь-якого методу машинного навчання, який встановлює, вивчає або виводить «правила» для зберігання, маніпулювання або застосування знань. Визначальною характеристикою алгоритму машинного навчання на основі правил є встановлювання та використання набору реляційних правил, які сукупно подають вловлені системою знання. Це відмінність від інших алгоритмів машинного навчання, які зазвичай визначають одиничну модель, яку можливо універсально застосовувати до будь-якого примірника, щоби зробити передбачення. До підходів машинного навчання на основі правил належать [en], навчання асоціативних правил та штучні імунні системи.
Ґрунтуючись на понятті сильних правил, [en], [en] та Арун Свамі запровадили асоціативні правила для виявляння закономірностей між продуктами у великомасштабних даних транзакцій, записаних системами [en] у супермаркетах. Наприклад, правило , знайдене в даних про продажі супермаркету, вказуватиме на те, що якщо клієнт купує разом цибулю та картоплю, він, імовірно, купить також і м'ясо для гамбургерів. Таку інформацію можливо використовувати як основу для ухвалення рішень щодо маркетингових заходів, таких як рекламні ціни чи розміщення продукції. На додачу до [en], асоціативні правила сьогодні застосовують у таких сферах застосування як розроблення веб-користування (англ. web usage mining), виявляння вторгнень, безперервне виробництво та біоінформатика. На відміну від [en] (англ. sequence mining), навчання асоціативних правил зазвичай не враховує порядок елементів у транзакції чи між транзакціями.
Системи навчання класифікаторів (англ. learning classifier systems, LCS) — це сімейство алгоритмів машинного навчання на основі правил, які поєднують відкривальну складову, зазвичай генетичний алгоритм, з навчальною складовою, що виконує кероване навчання, навчання з підкріпленням або некероване навчання. Вони прагнуть встановити набір контекстнозалежних правил, які сукупно зберігають та застосовують знання кусковим чином, щоб робити передбачення.
[en] (ІЛП, англ. Inductive logic programming, ILP) — це підхід до навчання правил із застосуванням логічного програмування як універсального подання вхідних прикладів, базових знань та гіпотез. Маючи кодування відомих базових знань та набору прикладів, поданих як логічна база даних фактів, система ІЛП виводитиме гіпотетичну логічну програму, яка має наслідками всі позитивні приклади й жодного з негативних. [en] (англ. inductive programming) — це споріднена галузь, у якій для подання гіпотез розглядають будь-які мови програмування (а не лише логічне програмування), наприклад, функційні програми.
Індуктивне логічне програмування особливо корисне в біоінформатиці та обробці природної мови. [en] та [en] заклали початкову теоретичну основу для індуктивного машинного навчання в логічній постановці. 1981 року Шапіро створив своє перше втілення (систему висновування моделей, англ. Model Inference System): програму мовою Пролог, яка індуктивно висновувала логічні програми з позитивних та негативних прикладів. Термін індуктивний тут стосується філософської індукції, що пропонує теорію для пояснення спостережуваних фактів, а не математичної індукції, що доводить якусь властивість для всіх членів добре впорядкованої множини.
Моделі
Виконання машинного навчання може передбачувати створення моделі, яка тренується на деяких тренувальних даних, а потім може обробляти додаткові дані для передбачування. Для систем машинного навчання використовували та досліджували різні типи моделей.
Штучні нейронні мережі
Штучні нейронні мережі (ШНМ, англ. artificial neural networks, ANN), або конекціоністські системи, це обчислювальні системи, дещо натхненні біологічними нейронними мережами, які складають мозок тварин. Такі системи «вчаться» виконувати завдання, розглядаючи приклади, як правило, без програмування будь-якими специфічними для завдань правилами.
ШНМ — це модель, що ґрунтується на сукупності з'єднаних вузлів, званих «штучними нейронами» (англ. "artificial neurons"), які в загальних рисах моделюють нейрони біологічного мозку. Кожне з'єднання, як синапси в біологічному мозку, може передавати інформацію, «сигнал», від одного штучного нейрона до іншого. Штучний нейрон, який отримує сигнал, може обробити його, а потім сигналізувати додатковим штучним нейронам, з якими його з'єднано. У звичайних втіленнях ШНМ сигнал на з'єднанні між штучними нейронами це дійсне число, а вихід кожного штучного нейрона обчислюється деякою нелінійною функцією суми його входів. З'єднання між штучними нейронами називають «ребрами» (англ. "edges"). Штучні нейрони та ребра зазвичай мають [en] (англ. weight), яка підлаштовується в перебігу навчання. Вага підвищує або знижує силу сигналу на з'єднанні. Штучні нейрони можуть мати поріг, такий, що сигнал надсилається лише тоді, коли сукупний сигнал долає цей поріг. Як правило, штучні нейрони впорядковують у шари (англ. layers). Різні шари можуть виконувати різні види перетворень своїх входів. Сигнали проходять від першого шару (рівень входу) до останнього (рівень виходу), можливо, після кількаразового проходження шарів.
Первинна мета підходу ШНМ полягала в розв'язуванні задач так само, як це робив би людський мозок. Проте з часом увага перемістилася на виконання конкретних завдань, що призвело до відхилень від біології. Штучні нейронні мережі використовували для багатьох завдань, включно з комп'ютерним баченням, розпізнаванням мовлення, машинним перекладом, фільтруванням соціальних мереж, [en], та медичним діагностуванням.
Глибоке навчання (англ. deep learning) складається з численних прихованих шарів у штучній нейронній мережі. Цей підхід намагається змоделювати те, як людський мозок перетворює світло та звук у бачення та слух. Серед успішних застосувань глибокого навчання — комп'ютерне бачення та розпізнавання мовлення.
Дерева рішень
Навчання дерев рішень (англ. decision tree learning) використовує дерево рішень як передбачувальну модель для переходу від спостережень про об'єкт (поданих у гілках) до висновків щодо цільового значення для об'єкта (поданих у листках). Це один із підходів до передбаувального моделювання, який використовують у статистиці, добуванні даних та машинному навчанні. Деревні моделі, де цільова змінна може набувати дискретного набору значень, називають класифікаційними деревами (англ. classification trees); у цих деревних структурах листки подають мітки класів, а гілки подають кон'юнкції ознак, які ведуть до цих міток класів. Дерева рішень, де цільова змінна може набувати неперервних значень (зазвичай дійсних чисел), називають регресійними деревами (англ. regression trees). В аналізі рішень дерево рішень можливо використовувати для візуального та явного подання рішень та ухвалення рішень. В добуванні даних дерево рішень описує дані, але отримане класифікаційне дерево може бути входом для ухвалювання рішень.
Опорновекторні машини
Опорновекторні машини (ОВМ, англ. support-vector machines, SVM), також знані як опорновекторні мережі (англ. support-vector networks) та метод опорних векторів, — це набір пов'язаних методів керованого навчання, які використовують для класифікування та регресії. Маючи набір тренувальних прикладів, кожен з яких позначено як належний до однієї з двох категорій, алгоритм тренування ОВМ будує модель, яка передбачує, чи належить новий приклад до однієї категорії. Алгоритм тренування ОВМ — неймовірнісний бінарний лінійний класифікатор, хоча існують такі методи, як [en], для використання ОВМ у постановці ймовірнісного класифікування. На додачу до виконання лінійного класифікування, ОВМ можуть ефективно виконувати нелінійне класифікування з використанням так званого ядрового трюку, що неявно відображує їхні входи до просторів ознак високої розмірності.
Регресійний аналіз
Регресійний аналіз (англ. regression analysis) охоплює великий спектр статистичних методів для оцінювання зв'язку між вхідними змінними та пов'язаними з ними ознаками. Його найпоширенішим видом є лінійна регресія, де малюється одна лінія, яка найкраще допасовується до заданих даних відповідно до математичного критерію, такого як [en]. Останній часто розширюють за допомогою методів регуляризації, щоби пом'якшувати надмірне допасовування та зміщення, як у гребеневій регресії. Коли йдеться про нелінійні задачі, до основних моделей належать поліноміальна регресія (наприклад, вживана для допасовування лінії тренду в Microsoft Excel), логістична регресія (часто вживана у статистичному класифікуванні), або навіть ядрова регресія, яка запроваджує нелінійність, користуючись ядровим трюком для неявного відображення вхідних змінних до простору вищої розмірності.
Баєсові мережі
Баєсова мережа (англ. Bayesian network), мережа переконань (англ. belief network) або орієнтована ациклічна графова модель (англ. directed acyclic graphical model) — це ймовірнісна графова модель, яка подає набір випадкових величин та їхніх [en] за допомогою орієнтованого ациклічного графа (ОАГ, англ. directed acyclic graph, DAG). Наприклад, баєсова мережа може подавати ймовірнісні зв'язки між захворюваннями та симптомами. За наявних симптомів цю мережу можливо використовувати для обчислення ймовірності наявності різних захворювань. Існують ефективні алгоритми, які виконують висновування й навчання. Баєсові мережі, що моделюють послідовності змінних, наприклад, сигнали мовлення або білкові послідовності, називають динамічними баєсовими мережами. Узагальнення баєсових мереж, які можуть подавати й розв'язувати задачі ухвалювання рішень в умовах невизначеності, називають [en].
Гауссові процеси
Гауссів процес (англ. Gaussian process) — це стохастичний процес, у якому кожна скінченна сукупність випадкових змінних у процесі має багатовимірний нормальний розподіл, і він ґрунтується на попередньо визначеній [en], або ядрі (англ. kernel), яке моделює, як пари точок співвідносяться одна з одною залежно від їхнього місцезнаходження.
За заданого набору спостережених точок, або прикладів входів—виходів, розподіл (неспостережуваного) виходу нової точки як функцію її вхідних даних можливо безпосередньо обчислити, дивлячись на спостережені точки та коваріації між цими точками та новою, небаченою точкою.
Гауссові процеси це популярні сурогатні моделі в баєсовій оптимізації, які використовують, щоби оптимізувати гіперпараметри.
Генетичні алгоритми
Генетичний алгоритм (ГА, англ. genetic algorithm, GA) — це алгоритм пошуку та евристична методика, яка імітує процес природного добору, використовуючи такі методи як [en] та схрещування, щоби створювати нові генотипи у надії знайти добрі розв'язки певної задачі. У машинному навчанні генетичні алгоритми використовували в 1980—1990-х роках. І навпаки, методики машинного навчання використовували, щоби покращувати продуктивність генетичних та еволюційних алгоритмів.
Функції переконань
Теорія функцій переконань (англ. theory of belief functions), звана також теорією свідчень (англ. evidence theory) та теорією Демпстера — Шафера, — це загальна система для міркувань із невизначеністю, зі зрозумілими зв'язками з іншими системами, такими як імовірність, можливість та [en]. Ці теоретичні системи можливо розглядати як свого роду навчальний механізм, вони можуть мати деякі подібні властивості щодо того, як поєднуються свідчення (наприклад, правило поєднування Демпстера), точно як поєднував би ймовірності баєсів підхід на основі функцій маси ймовірності.[прояснити] Проте існує багато застережень до цих функцій переконань при порівнянні з баєсовими підходами з метою включення необізнаності та [en]. Ці підходи функцій переконань, які втілюють у галузі машинного навчання, зазвичай використовують підхід злиття різних ансамблевих методів, щоби краще впоруватися з [en], недостатніми вибірками та проблемами нечіткості класів, з якими стандартний підхід машинного навчання, як правило, має складнощі. Проте обчислювальна складність цих алгоритмів залежить від кількості суджень (класів), і може призводити до значно більшого обчислювального часу порівняно з іншими підходами машинного навчання.
Тренування моделей
Як правило, щоби могти здійснювати точні прогнози, моделі машинного навчання вимагають великої кількості надійних даних. При тренуванні моделі машинного навчання інженерам машинного навчання потрібно намітити та зібрати велику та репрезентативну вибірку даних. Дані тренувального набору можуть мати різний характер, такий як корпус текстів, набір зображень, даних давачів чи даних, зібраних з окремих користувачів служби. При тренуванні моделі машинного навчання слід пильнувати перенавчання. Натреновані моделі, отримані з упереджених або неоцінених даних, можуть призводити до викривлених або небажаних передбачень. Упереджені моделі можуть призводити до шкідливих результатів, відтак посилюючи негативний вплив на суспільство та цілі. Потенційним результатом того, що дані не було повністю підготовлено для навчання, може ставати [en]. Етика машинного навчання стає галуззю дослідження, помітно інтегрованою в командах інженерів машинного навчання.
Федеративне навчання
Федеративне навчання (англ. federated learning) — це пристосована форма [en] для тренування моделей машинного навчання, яка децентралізує процес тренування, дозволяючи підтримувати конфіденційність користувачів, не надсилаючи їхні дані до централізованого сервера. Це також підвищує ефективність завдяки децентралізації процесу тренування на багатьох пристроях. Наприклад, Gboard використовує федеративне машинне навчання для тренування моделей передбачування пошукових запитів на мобільних телефонах користувачів без необхідності надсилати окремі пошукові запити назад до Google.
Застосування
Існує багато застосувань машинного навчання, зокрема:
- [en]
- [en]
- Аналіз поведінки користувачів
- Аналіз тональності тексту
- Аналіз фінансових ринків
- [en]
- [en]
- Банківська діяльність
- Біоінформатика
- Біхевіоризм
- Виявляння [en]
- Виявляння шахрайств із кредитними картками
- [en]
- Громадянська наука
- Доведення теорем
- Економіка
- [en]
- Інтернет-реклама
- Інформаційний пошук
- [en]
- Класифікування послідовностей ДНК
- Кліматологія
- Комп'ютерне бачення
- [en]
- [en]
- Маркетинг
- [en]
- Машинний переклад
- [en]
- Мовознавство
- Нейрокомп'ютерні інтерфейси
- Обробка природної мови
- Оптимізація
- [en]
- [en]
- Пошукові системи
- Прогнозування часових рядів
- Програмна інженерія
- Рекомендаційні системи
- Розпізнавання мовлення
- Розпізнавання рукописного введення
- [en]
- Розуміння природної мови
- [en]
- Сільське господарство
- Страхування
- Телекомунікації
- [en]
- [en]
- Хемоінформатика
- [en]
2006 року провайдер медіапослуг Netflix провів перше змагання [en]», щоби знайти програму, яка би краще передбачувала вподобання користувачів та підвищила точність наявного алгоритму порад фільмів Cinematch щонайменше на 10 %. Спільна команда, що складалася з дослідників з AT&T Labs-Research у співпраці з командами Big Chaos та Pragmatic Theory, створила [en], отримавши 2009 року головний приз сумою 1 мільйон доларів. Невдовзі після вручення нагороди Netflix зрозуміли, що оцінки глядачів — не найкращий показник їхніх моделей перегляду («усе є порадою»), й вони змінили свій механізм порад відповідним чином. 2010 року The Wall Street Journal писала про фірму Rebellion Research та її використання машинного навчання для прогнозування фінансової кризи. 2012 року співзасновник Sun Microsystems [en] зробив прогноз, що в найближчі два десятиліття 80 % робочих місць лікарів буде втрачено на користь автоматизованого медичного діагностичного програмного забезпечення з машинним навчанням. 2014 року було повідомлено, що алгоритм машинного навчання було застосовано в галузі історії мистецтва для вивчення образотворчого живопису і що він, можливо, виявив раніше невизнані впливи серед художників. 2019 року Springer Nature опублікував першу дослідницьку книгу, створену за допомогою машинного навчання. 2020 року технологію машинного навчання використовували, щоби допомогти дослідникам ставити діагнози й розробляти ліки від COVID-19. Нещодавно машинне навчання було застосовано для прогнозування проекологічної поведінки мандрівників. Нещодавно технологію машинного навчання було також застосовано для оптимізації продуктивності та теплової поведінки смартфонів на основі взаємодії користувача з телефоном. За правильного застосування алгоритми машинного навчання (АМН) можуть використовувати широкий спектр характеристик компаній для прогнозування доходів від акцій без перенавчання. Використовуючи ефективне конструювання ознак та поєднуючи прогнози, АМН можуть породжувати результати, що значно перевершують отримувані за допомогою базових лінійних методик, як-от [en].
Обмеження
Попри те, що машинне навчання змінило деякі сфери, програми машинного навчання часто не дають очікуваних результатів. Причин для цього багато: брак (придатних) даних, брак доступу до даних, упередженість даних, проблеми конфіденційності, неправильно обрані завдання й алгоритми, неправильні інструменти та люди, брак ресурсів і проблеми з оцінюванням.
Ще один значний виклик становить «теорія чорної скриньки». Чорна скринька стосується ситуації, коли алгоритм або процес створення результату повністю непрозорий, що означає, що навіть розробники алгоритму не можуть перевірити закономірність, виділену машиною з даних. Спеціальний комітет Палати лордів, який стверджував, що така «система інтелекту», яка може мати «суттєвий вплив на життя людини», не вважатиметься прийнятною, якщо вона не надаватиме «повного та задовільного пояснення рішень, які вона ухвалює».
2018 року безпілотний автомобіль від Uber не зміг виявити пішохода, який загинув після зіткнення. Спроби використати машинне навчання в охороні здоров'я за допомогою системи IBM Watson не увінчалися успіхом навіть після багатьох років і мільярдів доларів інвестицій. Чатбот Microsoft звинувачували у створенні ворожих та образливих відповідей на звернення його користувачів.
Машинне навчання використовували як стратегію для уточнення свідчень, пов'язаних із систематичним рецензуванням і збільшенням навантаження на рецензентів у зв'язку зі збільшенням біомедичної літератури. Хоча воно покращилося за допомогою тренувальних наборів, воно ще не розвинувся достатньо, щоби зменшити робоче навантаження без обмеження необхідної чутливості для самих досліджень результатів.
Упередження
Підходи машинного навчання, зокрема, можуть страждати від різних упереджень даних (англ. data biases). Система машинного навчання, натренована конкретно на поточних клієнтах, може виявитися нездатною передбачити потреби нових груп клієнтів, не поданих у тренувальних даних. При навчанні на створених людьми даних машинне навчання цілком може підхопити конституційні та несвідомі упередження, які вже присутні в суспільстві.
Було показано, що мовні моделі, навчені з даних, містять людські упередження. В експерименті, який провела ProPublica, журналістська розслідувальська організація, розуміння алгоритму машинного навчання щодо рівнів рецидивізму ув'язнених неправильно мітило «чорношкірих обвинувачених як високоризикових удвічі частіше, ніж білошкірих». 2015 року Google на фотографіях часто позначувала темношкірих людей як горил, і 2018 року це все ще не було розв'язано як слід, а, як було повідомлено, Google натомість використовувала обхідний шлях, усуваючи всіх горил із тренувальних даних, і тому була взагалі нездатна розпізнати справжніх горил. Подібні проблеми з розпізнаванням небілих людей було виявлено в багатьох інших системах. 2016 року Microsoft протестувала чат-бота, який навчався з Twitter, і він швидко підхопив расистську та сексистську мову.
Через такі виклики ефективне використання машинного навчання в деяких областях може вимагати тривалішого пристосовування. Занепокоєння щодо [en] у машинному навчанні, тобто зменшення упередженості в машинному навчанні та сприяння його використанню для блага людини, все частіше висловлюють науковці зі штучного інтелекту, зокрема Фей-Фей Лі, яка нагадує інженерам, що «У ШІ немає нічого штучного… Він натхненний людьми, він створений людьми, і, що найважливіше, він впливає на людей. Це потужний інструмент, який ми лише починаємо розуміти, і це велика відповідальність.»
Поясненність
Поясне́нний ШІ (англ. Explainable AI, XAI), або інтерпретовний ШІ (англ. Interpretable AI), або поясненне машинне навчання (англ. Explainable Machine Learning, XML), — це штучний інтелект (ШІ), в якому люди можуть розуміти рішення або передбачення, зроблені цим ШІ. Це контрастує з концепцією «чорної скриньки» в машинному навчанні, де навіть її розробники не можуть пояснити, чому ШІ прийшов до певного рішення. Удосконалюючи ментальні моделі користувачів систем на основі ШІ та руйнуючи їхні хибні уявлення, поясненний ШІ обіцяє допомогти користувачам діяти ефективніше. Поясненний ШІ може бути втіленням соціального права на пояснення.
Перенавчання
Схиляння до поганої, переускладненої теорії, схибленої таким чином, щоби відповідати всім минулим тренувальним даним, називають перенавчанням. Багато систем намагаються знижувати перенавчання, винагороджуючи теорію відповідно до того, наскільки добре вона допасовується до даних, але штрафуючи теорію відповідно до того, наскільки вона складна.
Інші обмеження та вразливості
Учні також можуть розчаровувати, «вивчивши не той урок». Іграшковий приклад: класифікатор зображень, навчений лише на зображеннях коричневих коней і чорних котів, може зробити висновок, що всі коричневі плями, ймовірно, є кіньми. Приклад із реального світу полягає в тому, що, на відміну від людей, сучасні класифікатори зображень часто роблять висновки не на основі просторових відносин між складовими зображення, а навчаються зв'язків між пікселями, яких люди не помічають, але які все одно корелюють із зображеннями окремих видів реальних об'єктів. Зміна цих візерунків на законному зображенні може призвести до «змагальних» (англ. "adversarial") зображень, які система класифікує неправильно.
Змагальні вразливості також можуть виникати в нелінійних системах або випливати з нешаблонних збурень. Для деяких систем можливо змінити вихід, змінивши лише один змагально обраний піксель. Моделі машинного навчання часто вразливі до маніпуляцій та/або ухилення через [en].
Дослідники продемонстрували, як можливо непомітно розміщувати чорні ходи в класифікувальних (наприклад, дописів як «спам» та добре видимих «не спам») моделей машинного навчання, які часто розробляють та/або тренують треті сторони. Сторони можуть змінити класифікацію будь-якого входу, зокрема у випадках, для яких забезпечується певний тип [en], можливо, включно з доступом до білої скриньки.
Оцінювання моделей
Класифікацію моделей машинного навчання можливо затверджувати за допомогою методик оцінювання точності, таких як метод притримування (англ. holdout), який розбиває дані на тренувальний та випробувальний набори (зазвичай 2/3 тренувального набору та 1/3 випробувального) й оцінює продуктивність тренованої моделі на випробувальному наборі. Для порівняння, метод K-кратного перехресного затверджування (англ. K-fold-cross-validation) випадковим чином розбиває дані на K підмножин, а потім виконує K експериментів, кожен відповідно з 1 підмножиною для оцінювання та рештою K-1 підмножин для тренування моделі. На додачу до методів притримування та перехресного затверджування, для оцінювання точності моделі можливо використовувати натяжку (англ. bootstrap), яка вибирає з набору даних n примірників із заміною.
На додачу до загальної точності (англ. accuracy), дослідники часто повідомляють чутливість та специфічність (англ. sensitivity and specificity), що означають істиннопозитивний рівень (ІПР, англ. True Positive Rate, TPR) та істиннонегативний рівень (ІНР, англ. True Negative Rate, TNR) відповідно. Аналогічно, дослідники іноді повідомляють хибнопозитивний рівень (ХПР, англ. false positive rate, FPR), а також хибнонегативний рівень (ХНР, англ. false negative rate, FNR). Проте ці рівні це відношення, які не розкривають своїх чисельників та знаменників. Одним з ефективних методів вираження діагностичної спроможності моделі є [en] (ЗРХ, англ. total operating characteristic, TOC). ЗРХ показує чисельники та знаменники зазначених вище рівнів, таким чином, ЗРХ надає більше інформації, ніж загальновживана робоча характеристика приймача (РХП, англ. receiver operating characteristic, ROC) та пов'язана з РХП площа під цією кривою (ППК, англ. area under the curve, AUC).
Етика
Машинне навчання ставить безліч етичних питань. Системи, треновані на наборах даних, зібраних з упередженнями, можуть проявляти ці упередження при використанні ([en]), оцифровуючи таким чином культурні забобони. Наприклад, 1988 року британська комісія з питань расової рівності виявила, що медична школа св. Георгія використовувала комп'ютерну програму, натреновану на основі даних попереднього персоналу приймальної комісії, й ця програма відмовила майже 60 кандидатам, які були або жінками, або мали неєвропейські імена. Використання даних про наймання на роботу від фірми з расистською політикою найму може призвести до того, що система машинного навчання дублюватиме цю упередженість, оцінюючи претендентів на посаду за схожістю з попередніми успішними кандидатами. Ще один приклад містить передбачувальний алгоритм передбачувального поліцейського патрулювання компанії [en], який призвів до «непропорційно високого рівня надмірного поліцейського контролю у бідних спільнотах та спільнотах меншин» після тренування на історичних даних про злочинність.
В той час як відповідальне збирання даних та документування алгоритмічних правил, які використовує система, вважають критично важливою частиною машинного навчання, деякі дослідники звинувачують у вразливості машинного навчання до упереджень брак участі та представництва меншин у галузі ШІ. Справді, за дослідженням, проведеним Асоціацією досліджень у галузі обчислень (англ. Computing Research Association, CRA) 2021 року, «жіночий факультет складає лише 16,1 %» усіх членів факультету, які зосереджуються на ШІ у декількох університетах світу. Крім того, серед групи «нових резидентів США, випускників докторантур ШІ» 45 % ідентифікували себе як білі, 22,4 % як азіати, 3,2 % як іспанці, і 2,4 % як афроамериканці, що додатково демонструє відсутність різноманітності у галузі ШІ.
ШІ може бути добре оснащеним для ухвалювання рішень у технічних сферах, які значною мірою покладаються на дані та історичну інформацію. Ці рішення спираються на об'єктивність і логічну аргументацію. Оскільки людські мови містять упередження, машини, навчені на мовних корпусах текстів, обов'язково також навчаться цих упереджень.
Інші види етичних викликів, не пов'язаних з особистими упередженнями, спостерігаються в охороні здоров'я. Серед медичних працівників є занепокоєння, що ці системи може бути розроблено не в інтересах суспільства, а як машини для отримування доходу. Особливо це стосується Сполучених Штатів, де існує давня етична дилема щодо покращення охорони здоров'я, але також і збільшення прибутків. Наприклад, алгоритми може бути розроблено для виписування пацієнтам непотрібних тестів або ліків, у яких власники алгоритму мають частку. В машинного навчання в охороні здоров'я існує потенціал надати фахівцям додатковий інструмент для діагностування, лікування та планування шляхів одужання пацієнтів, але для цього потрібно пом'якшувати ці упередження.
Апаратне забезпечення
Починаючи з 2010-х років прогрес як в алгоритмах машинного навчання, так і в комп'ютерному обладнанні призвів до появи ефективніших методів тренування глибоких нейронних мереж (особливої вузької підобласті машинного навчання), які містять багато шарів нелінійних прихованих вузлів. До 2019 року графічні процесори (ГП), часто зі спеціальними вдосконаленнями для ШІ, витіснили ЦП як панівний метод тренування великомасштабного комерційного хмарного ШІ.OpenAI оцінила апаратні обчислення, які використовували в найбільших проєктах глибокого навчання, від AlexNet (2012), і до AlphaZero (2017), і виявила 300 000-кратне збільшення необхідного обсягу обчислень із тенденцією подвоєння часу кожні 3,4 місяці.
Нейроморфні/фізичні нейронні мережі
[en] (англ. physical neural network) або нейроморфний комп'ютер (англ. Neuromorphic computer) — це один із видів штучних нейронних мереж, у якому використовують електрично підлаштовуваний матеріал для імітування функціювання нейронного синапса. Термін «фізична» нейронна мережа використовують, щоби підкреслити залежність від фізичного апаратного забезпечення, яке використовують для імітування нейронів, на противагу до програмних підходів. Загальніше цей термін застосовний і до інших штучних нейронних мереж, у яких використовують мемристор або інший електрично підлаштовуваний опірний матеріал, щоб імітувати нейронний синапс.
Вбудовуване машинне навчання
Вбудоване машинне навчання (англ. Embedded Machine Learning) — це підгалузь машинного навчання, де модель машинного навчання працює на вбудованих системах з обмеженими обчислювальними ресурсами, як-от носимих комп'ютерах, [en] та мікроконтролерах. Експлуатація моделі машинного навчання у вбудованих пристроях усуває необхідність передавання й зберігання даних на хмарних серверах для подальшої обробки, відтак зменшуючи виривання даних та протікання конфіденційності, що відбуваються через передавання даних, а також зводить до мінімуму крадіжку інтелектуальної власності, особистих даних та комерційних таємниць. Вбудовуване машинне навчання можливо застосовувати за допомогою кількох методик, включно з апаратним прискоренням, використанням [en], оптимізуванням моделей машинного навчання та багатьма іншими.
Програмне забезпечення
До програмних пакетів, що містять різноманітні алгоритми машинного навчання, належать наступні:
Вільне та відкрите програмне забезпечення
- Caffe
- Deeplearning4j
- [en]
- [en]
- [en]
- [en]
- Keras
- [en]
- [en]
- [en]
- [en]
- Microsoft Cognitive Toolkit
- [en]
- [en]
- MXNet
- [en]
- [en]
- pandas
- ROOT (TMVA з ROOT)
- scikit-learn
- [en]
- Spark MLlib
- [en]
- TensorFlow
- Torch / PyTorch
- Weka / [en]
- XGBoost
- [en]
Власницьке програмне забезпечення з вільними або відкритими редакціями
- [en]
- [en]
Власницьке програмне забезпечення
- Amazon Machine Learning
- [en] KnowledgeSTUDIO
- Azure Machine Learning
- [en]
- [en]
- [en]
- [en]
- KXEN Modeler
- [en]
- Mathematica
- MATLAB
- [en]
- [en]
- [en]
- [en]
- [en]
- [en]
- [en]
- [en]
- Splunk
- STATISTICA Data Miner
Журнали
- «Journal of Machine Learning Research»
- «Machine Learning»
- «Nature Machine Intelligence»
- [en]»
- [en]»
Конференції
Див. також
- Автоматизоване машинне навчання — процес автоматизації машинного навчання
- Великі дані — інформаційні ресурси, характеризовані великим обсягом, швидкістю та різноманіттям
- [en] — парадигма програмування
- Квантове машинне навчання
- [en]
- [fr]
- Список наборів даних для досліджень з машинного навчання — OAIS 2.0
Примітки
- Визначення «без явного програмування» часто приписують Артурові Семюелю, який придумав термін «машинне навчання» 1959 року, але цю фразу не знайдено дослівно в тій публікації, й вона може бути парафразою, що з'явилася пізніше. Див. «Парафразуючи Артура Семюеля (1959), питання таке: Як комп'ютери можуть навчатися розв'язувати задачі без явного програмування?» у Koza, John R.; Bennett, Forrest H.; Andre, David; Keane, Martin A. (1996). Automated Design of Both the Topology and Sizing of Analog Electrical Circuits Using Genetic Programming. Artificial Intelligence in Design '96. Artificial Intelligence in Design '96 (англ.). Springer, Dordrecht. с. 151—170. doi:10.1007/978-94-009-0279-4_9. ISBN 978-94-010-6610-5.
- What is Machine Learning?. IBM (амер.). Процитовано 27 червня 2023.
- Zhou, Victor (20 грудня 2019). Machine Learning for Beginners: An Introduction to Neural Networks. Medium (англ.). Архів оригіналу за 9 березня 2022. Процитовано 15 серпня 2021.
- Hu, Junyan; Niu, Hanlin; Carrasco, Joaquin; Lennox, Barry; Arvin, Farshad (2020). Voronoi-Based Multi-Robot Autonomous Exploration in Unknown Environments via Deep Reinforcement Learning. IEEE Transactions on Vehicular Technology (англ.). 69 (12): 14413—14423. doi:10.1109/tvt.2020.3034800. ISSN 0018-9545. S2CID 228989788.
- Yoosefzadeh-Najafabadi, Mohsen; Hugh, Earl; Tulpan, Dan; Sulik, John; Eskandari, Milad (2021). Application of Machine Learning Algorithms in Plant Breeding: Predicting Yield From Hyperspectral Reflectance in Soybean?. Front. Plant Sci. (англ.). 11: 624273. doi:10.3389/fpls.2020.624273. PMC 7835636. PMID 33510761.
- (2006), Pattern Recognition and Machine Learning (англ.), Springer, ISBN 978-0-387-31073-2
- Машинне навчання та розпізнавання системи (англ. pattern recognition) «можна розглядати як дві грані одного поля.»
- (1998). Data Mining and Statistics: What's the connection?. Computing Science and Statistics (англ.). 29 (1): 3—9.
- Samuel, Arthur (1959). Some Studies in Machine Learning Using the Game of Checkers. IBM Journal of Research and Development (англ.). 3 (3): 210—229. CiteSeerX 10.1.1.368.2254. doi:10.1147/rd.33.0210. S2CID 2126705.
- R. Kohavi and F. Provost, "Glossary of terms", Machine Learning, vol. 30, no. 2–3, pp. 271–274, 1998. (англ.)
- Gerovitch, Slava (9 квітня 2015). How the Computer Got Its Revenge on the Soviet Union. Nautilus (англ.). Архів оригіналу за 22 вересня 2021. Процитовано 19 вересня 2021.
- Lindsay, Richard P. (1 вересня 1964). The Impact of Automation On Public Administration. Western Political Quarterly (англ.). 17 (3): 78—81. doi:10.1177/106591296401700364. ISSN 0043-4078. S2CID 154021253. Архів оригіналу за 6 жовтня 2021. Процитовано 6 жовтня 2021.
- History and Evolution of Machine Learning: A Timeline. WhatIs (англ.). Процитовано 8 грудня 2023.
- Milner, Peter M. (1993). The Mind and Donald O. Hebb. Scientific American (англ.). 268 (1): 124—129. Bibcode:1993SciAm.268a.124M. doi:10.1038/scientificamerican0193-124. ISSN 0036-8733. JSTOR 24941344. PMID 8418480.
- "Science: The Goof Button", Time (magazine), 18 August 1961. (англ.)
- Nilsson N. Learning Machines, McGraw Hill, 1965. (англ.)
- Duda, R., Hart P. Pattern Recognition and Scene Analysis, Wiley Interscience, 1973 (англ.)
- S. Bozinovski "Teaching space: A representation concept for adaptive pattern classification" COINS Technical Report No. 81-28, Computer and Information Science Department, University of Massachusetts at Amherst, MA, 1981. https://web.cs.umass.edu/publication/docs/1981/UM-CS-1981-028.pdf [Архівовано 2021-02-25 у Wayback Machine.] (англ.)
- Mitchell, T. (1997). Machine Learning (англ.). McGraw Hill. с. 2. ISBN 978-0-07-042807-2.
- (2008), The Annotation Game: On Turing (1950) on Computing, Machinery, and Intelligence, у Epstein, Robert; Peters, Grace (ред.), The Turing Test Sourcebook: Philosophical and Methodological Issues in the Quest for the Thinking Computer (англ.), Kluwer, с. 23—66, ISBN 9781402067082, архів оригіналу за 9 березня 2012, процитовано 11 грудня 2012
- Introduction to AI Part 1. Edzion (англ.). 8 грудня 2020. Архів оригіналу за 18 лютого 2021. Процитовано 9 грудня 2020.
- Sindhu V, Nivedha S, Prakash M (February 2020). An Empirical Science Research on Bioinformatics in Machine Learning. Journal of Mechanics of Continua and Mathematical Sciences (англ.) (7). doi:10.26782/jmcms.spl.7/2020.02.00006.
- Sarle, Warren S. (1994). Neural Networks and statistical models. SUGI 19: proceedings of the Nineteenth Annual SAS Users Group International Conference (англ.). SAS Institute. с. 1538–50. ISBN 9781555446116. OCLC 35546178.
- ; Norvig, Peter (2003) [1995]. Artificial Intelligence: A Modern Approach (вид. 2nd). Prentice Hall. ISBN 978-0137903955. (англ.)
- Langley, Pat (2011). The changing science of machine learning. Machine Learning (англ.). 82 (3): 275—9. doi:10.1007/s10994-011-5242-y.
- Le Roux, Nicolas; Bengio, Yoshua; Fitzgibbon, Andrew (2012). Improving First and Second-Order Methods by Modeling Uncertainty. У Sra, Suvrit; Nowozin, Sebastian; Wright, Stephen J. (ред.). Optimization for Machine Learning (англ.). MIT Press. с. 404. ISBN 9780262016469. Архів оригіналу за 17 січня 2023. Процитовано 12 листопада 2020.
- Bzdok, Danilo; ; Krzywinski, Martin (2018). Statistics versus Machine Learning. Nature Methods (англ.). 15 (4): 233—234. doi:10.1038/nmeth.4642. PMC 6082636. PMID 30100822.
- (10 вересня 2014). statistics and machine learning (англ.). reddit. Архів оригіналу за 18 жовтня 2017. Процитовано 1 жовтня 2014.
- Hung et al. Algorithms to Measure Surgeon Performance and Anticipate Clinical Outcomes in Robotic Surgery. JAMA Surg. 2018 (англ.)
- Cornell University Library (August 2001). Breiman: Statistical Modeling: The Two Cultures (with comments and a rejoinder by the author). Statistical Science (англ.). 16 (3). doi:10.1214/ss/1009213726. S2CID 62729017. Архів оригіналу за 26 червня 2017. Процитовано 8 серпня 2015.
- Gareth James; Daniela Witten; Trevor Hastie; Robert Tibshirani (2013). An Introduction to Statistical Learning (англ.). Springer. с. vii. Архів оригіналу за 23 червня 2019. Процитовано 25 жовтня 2014.
- Ramezanpour, A.; Beam, A.L.; Chen, J.H.; Mashaghi, A. (17 листопада 2020). Statistical Physics for Medical Diagnostics: Learning, Inference, and Optimization Algorithms. Diagnostics (англ.). 10 (11): 972. doi:10.3390/diagnostics10110972. PMC 7699346. PMID 33228143.
- Mashaghi, A.; Ramezanpour, A. (16 березня 2018). Statistical physics of medical diagnostics: Study of a probabilistic model. Physical Review E (англ.). 97 (3–1): 032118. arXiv:1803.10019. Bibcode:2018PhRvE..97c2118M. doi:10.1103/PhysRevE.97.032118. PMID 29776109. S2CID 4955393.
- ; Rostamizadeh, Afshin; Talwalkar, Ameet (2012). Foundations of Machine Learning (англ.). USA, Massachusetts: MIT Press. ISBN 9780262018258.
- Alpaydin, Ethem (2010). Introduction to Machine Learning (англ.). London: The MIT Press. ISBN 978-0-262-01243-0. Процитовано 4 лютого 2017.
- Синєглазов, Віктор; Чумаченко, Олена (2022). Бідюк, П. І.; Шугалей, Л. П. (ред.). Методи та технології напівкерованого навчання: Курс лекцій (PDF) (укр.). Київ: НТУУ «КПІ ім. Ігоря Сікорського».
- Дуда, О. М.; Кунанець, Н. Е.; Мацюк, О. В.; Пасічник, В. В. (21—27 травня 2018). Методи аналітичного опрацювання big data (PDF). Інтелектуальні системи прийняття рішень та проблеми обчислювального інтелекту (укр.). Залізний Порт. с. 159. ISBN 978-617-7573-17-2.
- Кропивницька, В. Б.; Магас, Д. М. (30 квітня 2023). Напівкероване машинне навчання для виявлення несправностей нафтогазопроводів. Modern engineering and innovative technologies (укр.). 1 (18): 33—36. doi:10.30890/2567-5273.2023-26-01-010.
- В'юненко, О. Б.; Виганяйло, С. М. (12 травня 2021). Сокуренко, В. В.; Швець, Д. В.; Могілевський, Л. В.; Шульга, В. П.; Яковлєв, Р. П.; Шмельов, Ю. М. (ред.). Інновації та загальні проблеми підвищення рівня кібербезпеки (PDF). II Міжнародна науково-практична конференція «Авіація, промисловість, суспільство» (укр.). Т. 1. МВС України, Харківський національний університет внутрішніх справ, Кременчуцький льотний коледж. с. 169. ISBN 978-966-610-243-3.
- Хорошилов, С. В.; Редька, М. О. (2019). Інтелектуальне керування орієнтацією космічних апаратів із використанням навчання з підкріпленням (PDF). Технічна механіка (укр.). Дніпро: Інститут технічної механіки Національної академії наук України та Державного космічного агентства України (4). doi:10.15407/itm2019.04.029.
{{cite journal}}
: Обслуговування CS1: Сторінки з параметром url-status, але без параметра archive-url (посилання) - Jordan, M. I.; Mitchell, T. M. (17 липня 2015). Machine learning: Trends, perspectives, and prospects. Science (англ.). 349 (6245): 255—260. Bibcode:2015Sci...349..255J. doi:10.1126/science.aaa8415. PMID 26185243. S2CID 677218.
- El Naqa, Issam; Murphy, Martin J. (2015). What is Machine Learning?. Machine Learning in Radiation Oncology (англ.). с. 3—11. doi:10.1007/978-3-319-18305-3_1. ISBN 978-3-319-18304-6. S2CID 178586107.
- Okolie, Jude A.; Savage, Shauna; Ogbaga, Chukwuma C.; Gunes, Burcu (June 2022). Assessing the potential of machine learning methods to study the removal of pharmaceuticals from wastewater using biochar or activated carbon. Total Environment Research Themes (англ.). 1—2: 100001. doi:10.1016/j.totert.2022.100001. S2CID 249022386.
- Russell, Stuart J.; Norvig, Peter (2010). Artificial Intelligence: A Modern Approach (англ.) (вид. Third). Prentice Hall. ISBN 9780136042594.
- Mohri, Mehryar; Rostamizadeh, Afshin; Talwalkar, Ameet (2012). Foundations of Machine Learning (англ.). The MIT Press. ISBN 9780262018258.
- Alpaydin, Ethem (2010). Introduction to Machine Learning (англ.). MIT Press. с. 9. ISBN 978-0-262-01243-0. Архів оригіналу за 17 січня 2023. Процитовано 25 листопада 2018.
- Jordan, Michael I.; Bishop, Christopher M. (2004). Neural Networks. У Allen B. Tucker (ред.). Computer Science Handbook, Second Edition (Section VII: Intelligent Systems) (англ.). Boca Raton, Florida: Chapman & Hall/CRC Press LLC. ISBN 978-1-58488-360-9.
- Zhang, Bosen; Huang, Haiyan; Tibbs-Cortes, Laura E.; Vanous, Adam; Zhang, Zhiwu; Sanguinet, Karen; Garland-Campbell, Kimberly A.; Yu, Jianming; Li, Xianran (2023). Streamline unsupervised machine learning to survey and graph indel-based haplotypes from pan-genomes. Molecular Plant (англ.). 16 (6): 975—978. doi:10.1016/j.molp.2023.05.005. PMID 37202927.
- Клейн, О. М. (2023). Метод та засоби виявлення аномалій в кіберфізичних системах комп’ютерного зору (кваліфікаційна робота магістра) (укр.). Хмельницький: Хмельницький національний університет.
- Alex Ratner; Stephen Bach; Paroma Varma; Chris. Weak Supervision: The New Programming Paradigm for Machine Learning. hazyresearch.github.io (англ.). referencing work by many other members of Hazy Research. Архів оригіналу за 6 червня 2019. Процитовано 6 червня 2019.
- van Otterlo, M.; Wiering, M. (2012). Reinforcement Learning and Markov Decision Processes. Reinforcement Learning. Adaptation, Learning, and Optimization (англ.). Т. 12. с. 3—42. doi:10.1007/978-3-642-27645-3_1. ISBN 978-3-642-27644-6.
- Roweis, Sam T.; Saul, Lawrence K. (22 грудня 2000). Nonlinear Dimensionality Reduction by Locally Linear Embedding. Science (англ.). 290 (5500): 2323—2326. Bibcode:2000Sci...290.2323R. doi:10.1126/science.290.5500.2323. PMID 11125150. S2CID 5987139.
- Shin, Terence (5 січня 2020). All Machine Learning Models Explained in 6 Minutes. Intuitive explanations of the most popular machine learning models. Towards Data Science (англ.). Архів оригіналу за 15 липня 2023. Процитовано 30 липня 2023.
- Pavel Brazdil; Christophe Giraud Carrier; Carlos Soares; Ricardo Vilalta (2009). Metalearning: Applications to Data Mining (англ.) (вид. Fourth). Springer Science+Business Media. с. 10—14, passim. ISBN 978-3540732624.
- Bozinovski, S. (1982). "A self-learning system using secondary reinforcement". In Trappl, Robert (ed.). Cybernetics and Systems Research: Proceedings of the Sixth European Meeting on Cybernetics and Systems Research. North-Holland. pp. 397–402. ISBN 978-0-444-86488-8. (англ.)
- Bozinovski, Stevo (2014) "Modeling mechanisms of cognition-emotion interaction in artificial neural networks, since 1981." Procedia Computer Science p. 255-263 (англ.)
- Bozinovski, S. (2001) "Self-learning agents: A connectionist theory of emotion based on crossbar value judgment." Cybernetics and Systems 32(6) 637–667. (англ.)
- Y. Bengio; A. Courville; P. Vincent (2013). Representation Learning: A Review and New Perspectives. IEEE Transactions on Pattern Analysis and Machine Intelligence (англ.). 35 (8): 1798—1828. arXiv:1206.5538. doi:10.1109/tpami.2013.50. PMID 23787338. S2CID 393948.
- Nathan Srebro; Jason D. M. Rennie; Tommi S. Jaakkola (2004). Maximum-Margin Matrix Factorization. [en](англ.).
- Coates, Adam; Lee, Honglak; Ng, Andrew Y. (2011). An analysis of single-layer networks in unsupervised feature learning (PDF). Int'l Conf. on AI and Statistics (AISTATS) (англ.). Архів оригіналу (PDF) за 13 серпня 2017. Процитовано 25 листопада 2018.
- Csurka, Gabriella; Dance, Christopher C.; Fan, Lixin; Willamowski, Jutta; Bray, Cédric (2004). Visual categorization with bags of keypoints (PDF). ECCV Workshop on Statistical Learning in Computer Vision (англ.). Архів (PDF) оригіналу за 13 липня 2019. Процитовано 29 серпня 2019.
- Daniel Jurafsky; James H. Martin (2009). Speech and Language Processing (англ.). Pearson Education International. с. 145—146.
- Lu, Haiping; Plataniotis, K.N.; Venetsanopoulos, A.N. (2011). A Survey of Multilinear Subspace Learning for Tensor Data (PDF). Pattern Recognition (англ.). 44 (7): 1540—1551. Bibcode:2011PatRe..44.1540L. doi:10.1016/j.patcog.2011.01.004. Архів (PDF) оригіналу за 10 липня 2019. Процитовано 4 вересня 2015.
- (2009). Learning Deep Architectures for AI (англ.). Now Publishers Inc. с. 1—3. ISBN 978-1-60198-294-0. Архів оригіналу за 17 січня 2023. Процитовано 15 лютого 2016.
- Tillmann, A. M. (2015). On the Computational Intractability of Exact and Approximate Dictionary Learning. IEEE Signal Processing Letters (англ.). 22 (1): 45—49. arXiv:1405.6664. Bibcode:2015ISPL...22...45T. doi:10.1109/LSP.2014.2345761. S2CID 13342762.
- [en], M Elad, and A Bruckstein. 2006. "K-SVD: An Algorithm for Designing Overcomplete Dictionaries for Sparse Representation [Архівовано 2018-11-23 у Wayback Machine.]." Signal Processing, IEEE Transactions on 54 (11): 4311–4322 (англ.)
- Zimek, Arthur; Schubert, Erich (2017), Outlier Detection, Encyclopedia of Database Systems (англ.), Springer New York, с. 1—5, doi:10.1007/978-1-4899-7993-3_80719-1, ISBN 9781489979933
- Hodge, V. J.; Austin, J. (2004). A Survey of Outlier Detection Methodologies (PDF). Artificial Intelligence Review (англ.). 22 (2): 85—126. CiteSeerX 10.1.1.318.4023. doi:10.1007/s10462-004-4304-y. S2CID 59941878. Архів (PDF) оригіналу за 22 червня 2015. Процитовано 25 листопада 2018.
- Dokas, Paul; Ertoz, Levent; Kumar, Vipin; Lazarevic, Aleksandar; Srivastava, Jaideep; Tan, Pang-Ning (2002). Data mining for network intrusion detection (PDF). Proceedings NSF Workshop on Next Generation Data Mining (англ.). Архів (PDF) оригіналу за 23 вересня 2015. Процитовано 26 березня 2023.
- Chandola, V.; Banerjee, A.; Kumar, V. (2009). Anomaly detection: A survey. [en] (англ.). 41 (3): 1—58. doi:10.1145/1541880.1541882. S2CID 207172599.
- Fleer, S.; Moringen, A.; Klatzky, R. L.; Ritter, H. (2020). Learning efficient haptic shape exploration with a rigid tactile sensor array, S. Fleer, A. Moringen, R. Klatzky, H. Ritter. PLOS ONE (англ.). 15 (1): e0226880. arXiv:1902.07501. doi:10.1371/journal.pone.0226880. PMC 6940144. PMID 31896135.
- Moringen, Alexandra; Fleer, Sascha; Walck, Guillaume; Ritter, Helge (2020), Nisky, Ilana; Hartcher-O'Brien, Jess; Wiertlewski, Michaël; Smeets, Jeroen (ред.), Attention-Based Robot Learning of Haptic Interaction, Haptics: Science, Technology, Applications, Lecture Notes in Computer Science (англ.), Cham: Springer International Publishing, т. 12272, с. 462—470, doi:10.1007/978-3-030-58147-3_51, ISBN 978-3-030-58146-6, S2CID 220069113
- Piatetsky-Shapiro, Gregory (1991), Discovery, analysis, and presentation of strong rules, in Piatetsky-Shapiro, Gregory; and Frawley, William J.; eds., Knowledge Discovery in Databases, AAAI/MIT Press, Cambridge, MA. (англ.)
- Bassel, George W.; Glaab, Enrico; Marquez, Julietta; Holdsworth, Michael J.; Bacardit, Jaume (1 вересня 2011). Functional Network Construction in Arabidopsis Using Rule-Based Machine Learning on Large-Scale Data Sets. The Plant Cell (англ.). 23 (9): 3101—3116. doi:10.1105/tpc.111.088153. ISSN 1532-298X. PMC 3203449. PMID 21896882.
- Agrawal, R.; Imieliński, T.; Swami, A. (1993). Mining association rules between sets of items in large databases. Proceedings of the 1993 ACM SIGMOD international conference on Management of data - SIGMOD '93 (англ.). с. 207. CiteSeerX 10.1.1.40.6984. doi:10.1145/170035.170072. ISBN 978-0897915922. S2CID 490415.
- Urbanowicz, Ryan J.; Moore, Jason H. (22 вересня 2009). Learning Classifier Systems: A Complete Introduction, Review, and Roadmap. Journal of Artificial Evolution and Applications (англ.). 2009: 1—25. doi:10.1155/2009/736398. ISSN 1687-6229.
- Plotkin G.D. Automatic Methods of Inductive Inference [Архівовано 2017-12-22 у Wayback Machine.], PhD thesis, University of Edinburgh, 1970. (англ.)
- Shapiro, Ehud Y. Inductive inference of theories from facts [Архівовано 2021-08-21 у Wayback Machine.], Research Report 192, Yale University, Department of Computer Science, 1981. Reprinted in J.-L. Lassez, G. Plotkin (Eds.), Computational Logic, The MIT Press, Cambridge, MA, 1991, pp. 199–254. (англ.)
- Shapiro, Ehud Y. (1983). Algorithmic program debugging. Cambridge, Mass: MIT Press. ISBN 0-262-19218-7 (англ.)
- Shapiro, Ehud Y. "The model inference system." Proceedings of the 7th international joint conference on Artificial intelligence-Volume 2. Morgan Kaufmann Publishers Inc., 1981. (англ.)
- Honglak Lee, Roger Grosse, Rajesh Ranganath, Andrew Y. Ng. "Convolutional Deep Belief Networks for Scalable Unsupervised Learning of Hierarchical Representations [Архівовано 2017-10-18 у Wayback Machine.]" Proceedings of the 26th Annual International Conference on Machine Learning, 2009. (англ.)
- Cortes, Corinna; Vapnik, Vladimir N. (1995). Support-vector networks. Machine Learning (англ.). 20 (3): 273—297. doi:10.1007/BF00994018.
- Stevenson, Christopher. Tutorial: Polynomial Regression in Excel. facultystaff.richmond.edu (англ.). Архів оригіналу за 2 червня 2013. Процитовано 22 січня 2017.
- Документація scikit-learn також містить подібні приклади [Архівовано 2022-11-02 у Wayback Machine.]. (англ.)
- Goldberg, David E.; Holland, John H. (1988). Genetic algorithms and machine learning (PDF). Machine Learning (англ.). 3 (2): 95—99. doi:10.1007/bf00113892. S2CID 35506513. Архів (PDF) оригіналу за 16 травня 2011. Процитовано 3 вересня 2019.
- Michie, D.; Spiegelhalter, D. J.; Taylor, C. C. (1994). Machine Learning, Neural and Statistical Classification. Ellis Horwood Series in Artificial Intelligence (англ.). Bibcode:1994mlns.book.....M.
- Zhang, Jun; Zhan, Zhi-hui; Lin, Ying; Chen, Ni; Gong, Yue-jiao; Zhong, Jing-hui; Chung, Henry S.H.; Li, Yun; Shi, Yu-hui (2011). Evolutionary Computation Meets Machine Learning: A Survey. Computational Intelligence Magazine (англ.). 6 (4): 68—75. doi:10.1109/mci.2011.942584. S2CID 6760276.
- Federated Learning: Collaborative Machine Learning without Centralized Training Data. Google AI Blog (англ.). 6 квітня 2017. Архів оригіналу за 7 червня 2019. Процитовано 8 червня 2019.
- Машинне навчання включено до програми CFA (обговорення згори донизу); див. Kathleen DeRose and Christophe Le Lanno (2020). "Machine Learning" [Архівовано 2020-01-13 у Wayback Machine.]. (англ.)
- Ivanenko, Mikhail; Smolik, Waldemar T.; Wanta, Damian; Midura, Mateusz; Wróblewski, Przemysław; Hou, Xiaohan; Yan, Xiaoheng (2023). Image Reconstruction Using Supervised Learning in Wearable Electrical Impedance Tomography of the Thorax. Sensors (англ.). 23 (18): 7774. Bibcode:2023Senso..23.7774I. doi:10.3390/s23187774. PMC 10538128. PMID 37765831.
- "BelKor Home Page" research.att.com (англ.)
- The Netflix Tech Blog: Netflix Recommendations: Beyond the 5 stars (Part 1) (англ.). 6 квітня 2012. Архів оригіналу за 31 травня 2016. Процитовано 8 серпня 2015.
- Scott Patterson (13 липня 2010). Letting the Machines Decide (англ.). The Wall Street Journal. Архів оригіналу за 24 червня 2018. Процитовано 24 червня 2018.
- Vinod Khosla (10 січня 2012). Do We Need Doctors or Algorithms? (англ.). Tech Crunch. Архів оригіналу за 18 червня 2018. Процитовано 20 жовтня 2016.
- When A Machine Learning Algorithm Studied Fine Art Paintings, It Saw Things Art Historians Had Never Noticed [Архівовано 2016-06-04 у Wayback Machine.], The Physics at ArXiv blog (англ.)
- Vincent, James (10 квітня 2019). The first AI-generated textbook shows what robot writers are actually good at. The Verge (англ.). Архів оригіналу за 5 травня 2019. Процитовано 5 травня 2019.
- Vaishya, Raju; Javaid, Mohd; Khan, Ibrahim Haleem; Haleem, Abid (1 липня 2020). Artificial Intelligence (AI) applications for COVID-19 pandemic. Diabetes & Metabolic Syndrome: Clinical Research & Reviews (англ.). 14 (4): 337—339. doi:10.1016/j.dsx.2020.04.012. PMC 7195043. PMID 32305024.
- Rezapouraghdam, Hamed; Akhshik, Arash; Ramkissoon, Haywantee (10 березня 2021). Application of machine learning to predict visitors' green behavior in marine protected areas: evidence from Cyprus. Journal of Sustainable Tourism (англ.). 31 (11): 2479—2505. doi:10.1080/09669582.2021.1887878. hdl:10037/24073.
- Dey, Somdip; Singh, Amit Kumar; Wang, Xiaohang; McDonald-Maier, Klaus (15 червня 2020). User Interaction Aware Reinforcement Learning for Power and Thermal Efficiency of CPU-GPU Mobile MPSoCs. 2020 Design, Automation & Test in Europe Conference & Exhibition (DATE) (PDF) (англ.). с. 1728—1733. doi:10.23919/DATE48585.2020.9116294. ISBN 978-3-9819263-4-7. S2CID 219858480. Архів оригіналу за 13 грудня 2021. Процитовано 20 січня 2022.
- Quested, Tony. Smartphones get smarter with Essex innovation. Business Weekly (англ.). Архів оригіналу за 24 червня 2021. Процитовано 17 червня 2021.
- Williams, Rhiannon (21 липня 2020). Future smartphones 'will prolong their own battery life by monitoring owners' behaviour'. [en] (англ.). Архів оригіналу за 24 червня 2021. Процитовано 17 червня 2021.
- Rasekhschaffe, Keywan Christian; Jones, Robert C. (1 липня 2019). Machine Learning for Stock Selection. Financial Analysts Journal (англ.). 75 (3): 70—88. doi:10.1080/0015198X.2019.1596678. ISSN 0015-198X. S2CID 108312507.
- Why Machine Learning Models Often Fail to Learn: QuickTake Q&A. Bloomberg.com (англ.). 10 листопада 2016. Архів оригіналу за 20 березня 2017. Процитовано 10 квітня 2017.
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Pro zhurnal div Machine Learning akademichnij zhurnal Zapit Statistichne navchannya perenapravlyaye syudi pro statistichne navchannya v lingvistici div Mashi nne navcha nnya MN angl machine learning ML ce galuz doslidzhen shtuchnogo intelektu zoseredzhena na rozrobci ta vivchenni en zdatnih navchatisya z danih i uzagalnyuvatisya na nebacheni dani j vidtak vikonuvati zavdannya bez yavnih instrukcij Porodzhuvalni shtuchni nejronni merezhi neshodavno zmogli perevershiti za produktivnistyu bagato poperednih pidhodiv Pidhodi mashinnogo navchannya zastosovuvali do bagatoh galuzej sered yakih veliki movni modeli komp yuterne bachennya rozpiznavannya movlennya filtruvannya elektronnoyi poshti silske gospodarstvo ta medicina de rozrobka algoritmiv dlya vikonannya neobhidnih zavdan bula bi zanadto vitratnoyu MN vidome u svoyemu zastosuvanni v komercijnih zadachah pid nazvoyu en Hoch i ne vse mashinne navchannya gruntuyetsya na statistici en ye vazhlivim dzherelom metodiv ciyeyi galuzi Matematichni osnovi MN zabezpechuyut metodi matematichnoyi optimizaciyi matematichnogo programuvannya Dobuvannya danih angl data mining ce pov yazane paralelne pole doslidzhen zoseredzhene na rozviduvalnomu analizi danih cherez nekerovane navchannya Z tochki zoru teoriyi sistemu dlya opisu mashinnogo navchannya zabezpechuye imovirno priblizno korektne navchannya Istoriya ta zv yazki z inshimi galuzyamiDiv takozh Hronologiya rozvitku mashinnogo navchannya Termin mashinne navchannya angl machine learning zaprovadiv 1959 roku Artur Semyuel pracivnik IBM ta pioner u galuzi komp yuternih igor ta shtuchnogo intelektu V cej period takozh vikoristovuvali j sinonim samonavchalni komp yuteri angl self teaching computers Hoch najranishu model mashinnogo navchannya j predstavili v 1950 h rokah koli Artur Semyuel vinajshov programu sho obchislyuvala shansi na peremogu v shashkah dlya kozhnoyi zi storin istoriya mashinnogo navchannya syagaye desyatilit lyudskogo bazhannya j zusil doslidzhuvati lyudski kognitivni procesi 1949 roku kanadskij psiholog Donald Gebb opublikuvav knigu en v yakij vin zaproponuvav teoretichnu nejronnu strukturu utvoryuvanu pevnimi vzayemodiyami nejroniv Gebbova model vzayemodiyi nejroniv mizh soboyu zaklala osnovu togo yak pracyuyut algoritmi ShI ta mashinnogo navchannya na rivni vuzliv abo shtuchnih nejroniv yaki komp yuteri vikoristovuyut dlya peredavannya danih Inshi doslidniki yaki doslidzhuvali lyudski kognitivni sistemi takozh zrobili svij vnesok do suchasnih tehnologij mashinnogo navchannya sered nih logik en ta Vorren Makkaloh yaki zaproponuvali ranni matematichni modeli nejronnih merezh dlya rozrobki algoritmiv sho imituyut procesi lyudskogo mislennya Na pochatku 1960 h rokiv kompaniya Raytheon rozrobila eksperimentalnu samonavchalnu mashinu angl learning machine z pam yattyu na perfostrichci pid nazvoyu Kibertron angl Cybertron dlya analizu gidroakustichnih signaliv elektrokardiogram ta zrazkiv movlennya za dopomogoyu zarodkovogo navchannya z pidkriplennyam Lyudina operator vchitel ciklichno trenuvala yiyi rozpiznavati zakonomirnosti za dopomogoyu knopki lyap angl goof shobi zmushuvati pereocinyuvati nepravilni rishennya Reprezentativnoyu knigoyu pro doslidzhennya mashinnogo navchannya v 1960 h rokah bula kniga Nilssona pro samonavchalni mashini prisvyachena perevazhno mashinnomu navchannyu dlya klasifikuvannya obraziv Zacikavlennya pov yazane z rozpiznavannyam obraziv trivalo i v 1970 h rokah yak opisano Dudoyu ta Gartom 1973 roku 1981 roku bulo zrobleno dopovid pro vikoristannya strategij navchannya shobi nejronna merezha navchilasya rozpiznavati 40 simvoliv 26 liter 10 cifr ta 4 specialni simvoli z komp yuternogo terminalu Tom Mitchell nadav shiroko citovane formalnishe viznachennya algoritmiv doslidzhuvanih u galuzi mashinnogo navchannya Kazhut sho komp yuterna programa vchitsya z dosvidu E shodo deyakogo klasu zavdan T ta miri produktivnosti P yaksho yiyi produktivnist u zavdannyah z T vimiryuvana P pokrashuyetsya z dosvidom E Ce viznachennya zavdan sho stosuyutsya mashinnogo navchannya proponuye principovo operacijne viznachennya zamist viznachannya ciyeyi galuzi v kognitivnih terminah Ce vidpovidaye propoziciyi Alana Tyuringa v jogo statti en v yakij pitannya Chi mozhut mashini misliti zaminyuyetsya zapitannyam Chi mozhut mashini robiti te sho mozhemo robiti mi yak mislyachi istoti Suchasne mashinne navchannya maye dvi meti odna klasifikuvati dani na osnovi rozroblenih modelej insha peredbachuvati majbutni rezultati na osnovi cih modelej Gipotetichnij algoritm dlya klasifikuvannya danih mozhe vikoristovuvati bachennya komp yuterom rodimok u poyednanni z kerovanim navchannyam shobi navchiti jogo klasifikuvati rakovi rodimki Algoritm mashinnogo navchannya dlya birzhovoyi torgivli mozhe informuvati trejdera pro majbutni potencijni prognozi Shtuchnij intelekt Mashinne navchannya yak pidgaluz ShI Yak naukovij napryam mashinne navchannya viroslo z poshukiv shtuchnogo intelektu ShI angl artificial intelligence AI V chasi yunosti ShI yak akademichnoyi disciplini deyaki doslidniki buli zacikavleni v tomu shobi mashini navchalisya z danih Voni namagalisya pidijti do ciyeyi zadachi riznimi simvolnimi metodami a takozh tim sho zgodom nazvali nejronnimi merezhami ce buli zdebilshogo perceptroni ta inshi modeli yaki piznishe viyavilisya perevinahodami en statistiki Zastosovuvali takozh i jmovirnisne mirkuvannya osoblivo v en 488 Prote posilennya akcentu na en sprichinilo rozriv mizh ShI ta mashinnim navchannyam Imovirnisni sistemi strazhdali na teoretichni ta praktichni problemi zbirannya ta podannya danih 488 Blizko 1980 roku prijshli ekspertni sistemi shobi dominuvati nad ShI a statistika bula v nemilosti Robota nad navchannyam na osnovi simvoliv znan taki prodovzhuvalasya v mezhah ShI veduchi do en ale statistichnishij napryamok doslidzhen buv teper za mezhami oblasti vlasne ShI u rozpiznavanni obraziv ta informacijnomu poshuku 708 710 755 Priblizno v cej zhe chas ShI ta informatikoyu bulo oblisheno doslidzhennya nejronnih merezh Cej napryamok takozh bulo prodovzheno za mezhami oblasti ShI informatiki yak konekcionizm doslidnikami z inshih disciplin vklyuchno z Gopfildom Rumelhartom ta Gintonom Yihnij golovnij uspih prijshov u seredini 1980 h rokiv iz povtornim vinajdennyam zvorotnogo poshirennya 25 Mashinne navchannya MN reorganizovane ta viznane yak okrema galuz pochalo procvitati v 1990 h rokah Cya galuz zminila svoyu metu z dosyagnennya shtuchnogo intelektu na rozv yazannya rozv yaznih zadach praktichnogo harakteru Vona zmistila fokus iz en uspadkovanih neyu vid ShI v bik metodiv ta modelej zapozichenih zi statistiki nechitkoyi logiki ta teoriyi jmovirnostej Dobuvannya danih Mashinne navchannya ta dobuvannya rozro blennya danih chasto vikoristovuyut odni j ti zh metodi i znachno perekrivayutsya ale v toj chas yak mashinne navchannya zoseredzhuyetsya na peredbachuvanni na osnovi vidomih vlastivostej vivchenih iz trenuvalnih danih dobuvannya rozro blennya danih zoseredzhuyetsya na vidkrivanni nevidomih ranishe vlastivostej v danih ce krok analizu vidkrivannya znan u bazah danih Dobuvannya danih vikoristovuye bagato metodiv mashinnogo navchannya ale z inshimi cilyami z inshogo boku mashinne navchannya takozh vikoristovuye metodi dobuvannya danih yak nekerovane navchannya abo yak krok poperednoyi obrobki dlya pokrashennya tochnosti mehanizmu navchannya Velika chastina plutanini mizh cimi dvoma doslidnickimi spilnotami yaki chasto mayut okremi konferenciyi ta okremi zhurnali z en yak osnovnim vinyatkom vihodit z osnovnih pripushen z yakimi voni pracyuyut u mashinnomu navchanni produktivnist zazvichaj ocinyuyut z oglyadu na zdatnist vidtvoryuvati vidomi znannya todi yak u vidkrivanni znan ta dobuvanni danih angl knowledge discovery and data mining KDD klyuchovim zavdannyam ye vidkrittya ranishe nevidomih znan Pri ocinyuvanni vidnosno vidomih znan neinformovanij nekerovanij metod legko progravatime inshim kerovanim metodam todi yak u tipovomu zavdanni KDD vikoristovuvati kerovani metodi nemozhlivo cherez vidsutnist trenuvalnih danih Mashinne navchannya takozh maye tisni zv yazki z optimizaciyeyu bagato zadach navchannya formulyuyut yak minimizaciyu deyakoyi funkciyi vtrat na trenuvalnomu nabori prikladiv Funkciyi vtrat virazhayut rozbizhnist mizh peredbachennyami trenovanoyi modeli ta dijsnimi primirnikami zadachi napriklad u klasifikuvanni potribno priznachuvati mitki zrazkam i modeli trenuyutsya pravilno peredbachuvati poperedno priznacheni mitki naboru prikladiv Uzagalnyuvannya Vidminnist mizh optimizaciyeyu ta mashinnim navchannyam postaye cherez metu en v toj chas yak algoritmi optimizaciyi mozhut minimizuvati vtrati na trenuvalnomu nabori mashinne navchannya zajmayetsya minimizuvannyam vtrat na nebachenih zrazkah Harakterizuvannya uzagalnyuvannya riznih algoritmiv navchannya ce aktivna tema potochnih doslidzhen osoblivo dlya algoritmiv glibokogo navchannya Statistika Mashinne navchannya ta statistika ce tisno pov yazani galuzi z poglyadu metodiv ale vidminni u svoyij golovnij meti statistika robit visnovki pro zagalnu sukupnist iz vibirki todi yak mashinne navchannya znahodit uzagalnyuvalni peredbachuvalni shemi Za slovami en ideyi mashinnogo navchannya vid metodologichnih principiv do teoretichnih instrumentiv mali dovgu peredistoriyu v statistici Vin takozh zaproponuvav dlya poznachennya vseosyazhnoyi galuzi termin nauka pro dani angl data science Tradicijnij statistichnij analiz vimagaye apriornogo viboru modeli yaka najbilshe pidhodit dlya naboru danih doslidzhennya Krim togo do analizu zaluchayut lishe suttyevi ta teoretichno dorechni zminni na osnovi poperednogo dosvidu Mashinne navchannya navpaki ne buduyetsya na poperedno strukturovanij modeli skorishe ce dani formuyut model viyavlyayuchi zakonomirnosti sho lezhat u yihnij osnovi Sho bilshe zminnih vhodiv vikoristovuyut dlya trenuvannya modeli to tochnishoyu bude ostatochna model en vidiliv dvi paradigmi statistichnogo modelyuvannya model danih ta algoritmichnu model de algoritmichna model angl algorithmic model oznachaye bilsh mensh algoritmi mashinnogo navchannya taki yak vipadkovij lis Deyaki fahivci zi statistiki perejnyali metodi z mashinnogo navchannya sho prizvelo do ob yednanoyi oblasti yaku voni nazivayut statistichnim navchannyam angl statistical learning Statistichna fizika Analitichni ta obchislyuvalni metodiki sho pohodyat z gliboko vkorinenoyi fiziki nevporyadkovanih sistem mozhlivo poshiryuvati na velikomasshtabni zadachi vklyuchno z mashinnim navchannyam napriklad dlya analizu prostoru vag glibokih nejronnih merezh Statistichna fizika vidtak znahodit zastosuvannya v galuzi medichnoyi diagnostiki TeoriyaDokladnishe en ta Teoriya statistichnogo navchannya Centralna meta sistemi yaka navchayetsya ce robiti uzagalnennya zi svogo dosvidu Uzagalnennya v comu konteksti ce zdatnist mashini sho vchitsya pracyuvati tochno na novih nebachenih prikladah zavdannyah pislya otrimannya dosvidu navchalnogo naboru danih Trenuvalni prikladi pohodyat z yakogos zagalom nevidomogo rozpodilu jmovirnosti yakij vvazhayut predstavnickim dlya prostoru vipadkiv i sistema sho vchitsya maye pobuduvati zagalnu model cogo prostoru yaka dozvolyaye yij viroblyati dostatno tochni peredbachennya v novih vipadkah Obchislyuvalnij analiz algoritmiv mashinnogo navchannya ta yihnoyi produktivnosti ce rozdil teoretichnoyi informatiki znanij yak en cherez model imovirno priblizno korektnogo navchannya angl Probably Approximately Correct Learning PAC Oskilki trenuvalni nabori skinchenni a majbutnye nepevne teoriya navchannya zazvichaj ne daye garantij produktivnosti algoritmiv Natomist dovoli poshireni jmovirnisni ramki produktivnosti Odnim zi sposobiv kilkisnogo ocinyuvannya pohibki uzagalnyuvannya ye rozklad na zmishennya ta dispersiyu angl bias variance decomposition Dlya najkrashoyi produktivnosti v konteksti uzagalnyuvannya skladnist gipotezi povinna vidpovidati skladnosti funkciyi sho lezhit v osnovi danih Yaksho gipoteza mensh skladna nizh cya funkciya to model nedostatno dopasuvalasya do danih Yaksho u vidpovid skladnist modeli pidvishuvati to pohibka trenuvannya znizhuvatimetsya Ale yaksho gipoteza zanadto skladna to model piddayetsya perenavchannyu j uzagalnennya bude girshim Na dodachu do ramok produktivnosti teoretiki navchannya doslidzhuyut chasovu skladnist ta zdijsnennist navchannya V teoriyi obchislyuvalnogo navchannya obchislennya vvazhayut zdijsnennim yaksho jogo mozhlivo vikonati za polinomialnij chas Isnuye dva vidi rezultativ chasovoyi skladnosti Pozitivni rezultati pokazuyut sho pevnogo klasu funkcij mozhe buti navcheno za polinomialnij chas Negativni rezultati pokazuyut sho pevnih klasiv za polinomialnij chas navcheno buti ne mozhe PidhodiPidhodi mashinnogo navchannya tradicijno podilyayut na tri veliki kategoriyi yaki vidpovidayut paradigmam navchannya zalezhno vid prirodi signalu abo zvorotnogo zv yazku dostupnogo sistemi navchannya Kerovane navchannya angl supervised learning komp yuter znajomlyat zi zrazkami vhodiv ta yihnih bazhanih vihodiv nadanih vchitelem a metoyu ye navchitisya zagalnogo pravila yake en vhodi na vihodi Nekerovane navchannya angl unsupervised learning algoritmovi navchannya ne nadayut mitok zalishayuchi jomu samostijno znahoditi strukturu u vhodi Nekerovane navchannya mozhe buti metoyu same po sobi viyavlyannya prihovanih zakonomirnostej u danih abo zasobom dosyagnennya meti navchannya oznak Navchannya z pidkriplennyam angl reinforcement learning komp yuterna programa vzayemodiye z dinamichnim seredovishem u yakomu vona musit vikonuvati pevnu metu napriklad keruvati transportnim zasobom abo grati u gru proti supernika Z peremishennyam u prostori zadachi programi nadayut zvorotnij zv yazok analogichnij vinagorodam yaki vona namagayetsya maksimizuvati Hocha perevagi j obmezhennya maye kozhen z algoritmiv zhoden algoritm ne pracyuye dlya vsih zadach Kerovane navchannya Dokladnishe Kerovane navchannya Opornovektorna mashina ce model kerovanogo navchannya yaka podilyaye dani na oblasti rozdileni linijnoyu mezheyu Tut linijna mezha viddilyaye chorni kola vid bilih Algoritmi kerovanogo navchannya angl supervised learning buduyut matematichnu model naboru danih yakij mistit yak vhodi tak i bazhani vihodi Taki dani znani yak trenuvalni dani j skladayutsya z naboru trenuvalnih prikladiv Kozhen trenuvalnij priklad maye odin abo kilka vhodiv ta bazhanij vihid vidomij takozh yak kerivnij signal angl supervisory signal U matematichnij modeli kozhen trenuvalnij priklad podano masivom abo vektorom yakij inodi nazivayut vektorom oznak a trenuvalni dani podano matriceyu Zavdyaki iteracijnij optimizaciyi cilovoyi funkciyi algoritmi kerovanogo navchannya navchayutsya funkciyi yaku mozhlivo vikoristovuvati dlya peredbachuvannya vihodu pov yazanogo z novimi vhodami Optimalna funkciya dozvolyaye algoritmovi pravilno viznachati vihid dlya vhodiv yaki ne buli chastinoyu trenuvalnih danih Kazhut sho algoritm yakij z chasom udoskonalyuye tochnist svoyih vihodiv abo peredbachen navchivsya vikonuvati ce zavdannya Do tipiv algoritmiv kerovanogo navchannya nalezhat en klasifikuvannya ta regresiya Algoritmi klasifikuvannya vikoristovuyut koli vihodi obmezheno vuzkim naborom znachen a algoritmi regresiyi vikoristovuyut koli vihodi mozhut mati bud yake chislove znachennya v mezhah yakogos diapazonu Yak priklad dlya algoritmu klasifikuvannya yakij filtruye elektronni listi vhodom bude vhidnij elektronnij list a vihodom nazva teki do yakoyi potribno cej elektronnij list zberegti en angl similarity learning ce galuz kerovanogo mashinnogo navchannya tisno pov yazana z regresiyeyu ta klasifikuvannyam ale yaka maye na meti vchitisya z prikladiv vikoristovuyuchi funkciyu podibnosti sho vimiryuye naskilki shozhi abo pov yazani dva ob yekti Vono maye zastosuvannya v ranzhuvanni rekomendacijnih sistemah vizualnomu vidstezhuvanni identichnosti perevirci oblich ta perevirci movcya Nekerovane navchannya Dokladnishe Nekerovane navchannya Div takozh Klasternij analiz Algoritmi nekerovanogo navchannya angl unsupervised learning znahodyat strukturi v danih yaki ne bulo micheno klasifikovano chi kategorizovano Zamist reaguvati na zvorotnij zv yazok algoritmi nekerovanogo navchannya vstanovlyuyut spilni risi v danih i reaguyut na nayavnist abo vidsutnist takih spilnih ris u kozhnij novij odinici danih Do osnovnih zastosuvan nekerovanogo mashinnogo navchannya nalezhat klasteruvannya znizhuvannya rozmirnosti ta ocinyuvannya gustini Algoritmi nekerovanogo navchannya takozh optimizuvali proces vstanovlyuvannya velikih en potribnogo gena z en na osnovi en Klasteruvannya velikimi indelnimi perestavnimi shilami angl Clustering via Large Indel Permuted Slopes CLIPS peretvoryuye zobrazhennya shikuvannya na zadachu navchannya regresiyi Rizni ocinki nahilu b mizh kozhnoyu paroyu segmentiv DNK dozvolyayut vstanovlyuvati segmenti sho mayut odnakovij nabir indeliv Klasternij analiz angl cluster analysis ce rozpodil naboru sposterezhen na pidmnozhini zvani klasterami shobi sposterezhennya v odnomu klasteri buli podibnimi vidpovidno do odnogo abo kilkoh zazdalegid vstanovlenih kriteriyiv todi yak sposterezhennya vzyati z riznih klasteriv buli neshozhimi Rizni metodiki klasteruvannya roblyat rizni pripushennya shodo strukturi danih yaki chasto viznachayut deyakoyu miroyu podibnosti angl similarity metric ta ocinyuyut napriklad za vnutrishnoyu kompaktnistyu angl internal compactness abo podibnistyu chleniv odnogo klastera ta vidokremlenistyu angl separation rizniceyu mizh klasterami Inshi metodi gruntuyutsya na ocinyuvanij gustini angl estimated density ta grafovij zv yaznosti angl graph connectivity Napivkerovane navchannya Dokladnishe Napivkerovane navchannya Napivkerovane navchannya angl semi supervised learning perebuvaye mizh nekerovanim navchannyam bez bud yakih michenih trenuvalnih danih ta kerovanim navchannyam z povnistyu michenimi trenuvalnimi danimi Deyaki trenuvalni prikladi pozbavleni trenuvalnih mitok ale bagato doslidnikiv mashinnogo navchannya viyavili sho nemicheni dani yaksho yih vikoristovuvati razom iz nevelikoyu kilkistyu michenih danih mozhut znachno pidvishuvati tochnist navchannya U slabokerovanim navchanni trenuvalni mitki zashumleni obmezheni abo netochni prote ci mitki chasto deshevshe otrimuvati sho daye bilshi efektivni trenuvalni nabori Navchannya z pidkriplennyam Dokladnishe Navchannya z pidkriplennyam Navchannya z pidkriplennyam angl reinforcement learning ce galuz mashinnogo navchannya pov yazana z tim yak programni agenti povinni vikonuvati diyi v seredovishi shobi maksimizuvati pevne uyavlennya pro sukupnu vinagorodu Zavdyaki yiyi zagalnosti cyu galuz vivchayut u bagatoh inshih disciplinah takih yak teoriya igor teoriya keruvannya doslidzhennya operacij teoriya informaciyi optimizaciya na osnovi modelyuvannya bagatoagentni sistemi rojovij intelekt statistika ta genetichni algoritmi U navchanni z pidkriplennyam seredovishe zazvichaj podayut yak markovskij proces virishuvannya MPV angl markov decision process MDP Bagato algoritmiv navchannya z pidkriplennyam vikoristovuyut metodiki dinamichnogo programuvannya Algoritmi navchannya z pidkriplennyam ne vihodyat zi znannya tochnoyi matematichnoyi modeli MPV i yih vikoristovuyut koli tochni modeli nedosyazhni Algoritmi navchannya z pidkriplennyam vikoristovuyut v avtonomnih transportnih zasobah ta v navchanni gri proti lyudini suprotivnika Znizhuvannya rozmirnosti Znizhuvannya rozmirnosti angl dimensionality reduction ce proces znizhennya kilkosti vipadkovih zminnih yaki rozglyadayut shlyahom otrimannya naboru providnih zminnih angl principal variables Inshimi slovami ce proces znizhennya rozmirnosti naboru oznak yaku takozh nazivayut kilkistyu oznak angl number of features Bilshist metodik znizhuvannya rozmirnosti mozhlivo rozglyadati yak usunennya abo vidilyannya oznak Odnim iz populyarnih metodiv znizhuvannya rozmirnosti ye metod golovnih komponent MGK angl principal component analysis PCA MGK vklyuchaye perenesennya danih bilshoyi rozmirnosti napriklad trivimirnih do menshogo prostoru napriklad dvovimirnogo Ce daye menshu rozmirnist danih dvovimirni zamist trivimirnih zberigayuchi vsi pervinni zminni v modeli bez zmini danih en proponuye ideyu roztashuvannya bagatovimirnih naboriv danih uzdovzh nizkovimirnih mnogovidiv i bagato metodik znizhuvannya rozmirnosti vihodyat iz cogo pripushennya sho vede do oblasti en ta en Inshi vidi Bulo rozrobleno j inshi pidhodi yaki ne vpisuyutsya v ci tri kategoriyi j inodi odna sistema mashinnogo navchannya vikoristovuye dekilka z nih Napriklad tematichne modelyuvannya metanavchannya Samonavchannya Samonavchannya angl self learning yak paradigmu mashinnogo navchannya bulo zaproponovano 1982 roku razom iz nejronnoyu merezheyu zdatnoyu do samonavchannya yaka otrimala nazvu poperechinnogo adaptivnogo masivu PAM angl crossbar adaptive array CAA Ce navchannya bez zovnishnih vinagorod i bez zovnishnih porad vchitelya Algoritm samonavchannya PAM obchislyuye poperechinnim chinom yak rishennya shodo dij tak i emociyi pochuttya shodo naslidkovih situacij Cya sistema keruyetsya vzayemodiyeyu mizh piznannyam ta emociyami Algoritm samonavchannya utochnyuye matricyu pam yati W w a s vikonuyuchi v kozhnij iteraciyi nastupnu proceduru mashinnogo navchannya u situaciyi s vikonati diyu a otrimati naslidkovu situaciyu s obchisliti emociyi perebuvannya v naslidkovij situaciyi v s utochniti poperechinnu pam yat w a s w a s v s Ce sistema lishe z odnim vhodom situaciyeyu ta lishe odnim vihodom diyeyu abo povedinkoyu a Nemaye ani okremogo vvedennya pidkriplennya ani vvedennya poradi vid seredovisha Poshiryuvane zvorotno znachennya vtorinne pidkriplennya angl secondary reinforcement ce emociya shodo naslidkovoyi situaciyi PAM isnuye u dvoh seredovishah odne ce povedinkove seredovishe v yakomu vona povoditsya a inshe ce genetichne seredovishe zvidki vona spochatku j lishe odin raz otrimuye pochatkovi emociyi shodo situacij z yakimi mozhlivo zitknutisya v povedinkovomu seredovishi Pislya otrimannya genomnogo vidovogo vektora z genetichnogo seredovisha PAM navchayetsya cilespryamovanoyi povedinki v seredovishi sho mistit yak bazhani tak i nebazhani situaciyi Navchannya oznak Dokladnishe Navchannya oznak Kilka algoritmiv navchannya spryamovano na viyavlyannya krashih podan danih vhodu yaki nadhodyat pid chas trenuvannya Do klasichnih prikladiv nalezhat metod golovnih komponent i klasternij analiz Algoritmi navchannya oznak angl feature learning takozh zvani algoritmami navchannya podan angl representation learning chasto namagayutsya zberigati informaciyu svoyih vhidnih danih ale takozh peretvoryuvati yiyi takim chinom shobi robiti yiyi korisnoyu chasto yak etap poperednoyi obrobki pered vikonannyam klasifikuvannya abo peredbachen Cya metodika umozhlivlyuye vidbudovuvannya danih vhodu sho nadhodyat iz nevidomogo rozpodilu yakij porodzhuye ci dani ne obov yazkovo dotrimuyuchis konfiguracij nepravdopodibnih dlya cogo rozpodilu Ce zaminyuye konstruyuvannya oznak vruchnu ta dozvolyaye mashini yak navchatisya oznak tak i vikoristovuvati yih dlya vikonannya konkretnogo zavdannya Navchannya oznak mozhe buti kerovanim abo nekerovanim U kerovanim navchanni oznak yih navchayut z vikoristannyam michenih danih vhodu Do prikladiv nalezhat shtuchni nejronni merezhi bagatosharovi perceptroni ta kerovane en Pri nekerovanim navchanni oznak yih navchayut nemichenimi danimi vhodu Do prikladiv nalezhat navchannya slovnikiv en avtokoduvalniki rozkladannya matric ta rizni vidi klasteruvannya Algoritmi en namagayutsya robiti ce za obmezhennya shobi navchene podannya malo nizku rozmirnist Algoritmi rozridzhenogo koduvannya namagayutsya robiti ce za obmezhennya shobi navchene podannya bulo rozridzhenim tobto shobi matematichna model mistila bagato nuliv Algoritmi en spryamovano na navchannya podan nizkoyi rozmirnosti bezposeredno z tenzornih podan dlya bagatovimirnih danih bez pereformovuvannya yih u vektori vishoyi rozmirnosti Algoritmi glibokogo navchannya viyavlyayut dekilka rivniv podannya abo iyerarhiyu oznak iz abstraktnishimi oznakami vishogo rivnya viznachenimi v terminah oznak nizhchogo rivnya abo porodzhuvanimi nimi Stverdzhuvali sho rozumna mashina ce taka sho navchayetsya podannya yake rozplutuye chinniki minlivosti angl factors of variation sho lezhit v osnovi danih yaki poyasnyuyut sposterezhuvani dani Navchannya oznak sponukayetsya faktom sho zavdannya mashinnogo navchannya taki yak klasifikuvannya chasto vimagayut danih vhodu matematichno ta obchislyuvalno zruchnih dlya obrobki Prote dani realnogo svitu taki yak zobrazhennya video ta davachevi dani ne piddalisya sprobam viznachiti konkretni oznaki algoritmichno Alternativoyu ye viyavlyati taki oznaki abo podannya shlyahom doslidzhennya ne pokladayuchis na yavni algoritmi Navchannya rozridzhenih slovnikiv Dokladnishe en Navchannya rozridzhenih slovnikiv angl sparse dictionary learning ce metod navchannya oznak u yakomu trenuvalnij priklad podayut linijnoyu kombinaciyeyu bazisnih funkcij i vvazhayut rozridzhenoyu matriceyu Cej metod en i jogo vazhko rozv yazuvati nablizheno Populyarnij evristichnij metod navchannya rozridzhenih slovnikiv algoritm en angl K SVD Navchannya rozridzhenih slovnikiv zastosovuvali v kilkoh kontekstah U klasifikuvanni zadacha polyagaye u viznachenni klasu do yakogo nalezhit ranishe nebachenij trenuvalnij priklad Dlya slovnika de kozhen klas uzhe pobudovano novij trenuvalnij priklad pov yazuyetsya z klasom u slovniku yakogo jogo rozridzheno podano najkrashe Navchannya rozridzhenih slovnikiv takozh zastosovuvali dlya zneshumlyuvannya zobrazhen Klyuchova ideya polyagaye v tomu sho chistij klaptik zobrazhennya mozhe buti rozridzheno podano slovnikom zobrazhen a shum ni Viyavlyannya anomalij Dokladnishe Viyavlyannya anomalij U dobuvanni danih viyavlyannya anomalij angl anomaly detection vidome takozh yak viyavlyannya vikidiv angl outlier detection ce vstanovlyuvannya ridkisnih elementiv podij abo sposterezhen sho viklikayut pidozri znachno vidriznyayuchis vid bilshosti danih Zazvichaj anomalni elementi podayut taki problemi yak en strukturnij defekt medichni problemi abo pomilki v teksti Anomaliyi nazivayut vikidami angl outliers noviznoyu angl novelties shumom vidhilennyami abo vinyatkami Zokrema v konteksti viyavlyannya zlovzhivan i merezhnih vtorgnen cikavi ob yekti ce chasto ne ridkisni ob yekti a nespodivani spleski bezdiyalnosti Cya osoblivist povedinki ne vidpovidaye zagalnoprijnyatomu statistichnomu viznachennyu vikidu yak ridkisnogo ob yekta Bagato metodiv viyavlyannya vikidiv zokrema nekerovani algoritmi dadut zbij na takih danih yaksho yih ne agreguvati nalezhnim chinom Natomist algoritm klasternogo analizu mozhe viyaviti mikroklasteri utvoreni cimi osoblivostyami povedinki Isnuye tri veliki kategoriyi metodik viyavlyannya anomalij Metodiki nekerovanogo viyavlyannya anomalij viyavlyayut anomaliyi v nemichenomu nabori viprobuvalnih danih za pripushennya sho bilshist primirnikiv u nabori danih normalni shlyahom poshuku primirnikiv yaki vidayutsya najmensh dopasovanimi do reshti naboru danih Metodiki kerovanogo viyavlyannya anomalij vimagayut naboru danih michenih yak normalno j nenormalno i zaluchayut navchannya klasifikatora klyuchova vidminnist vid bagatoh inshih zadach statistichnogo klasifikuvannya polyagaye v nezbalansovanij prirodi viyavlyannya vikidiv Metodiki napivkerovanogo viyavlyannya anomalij stvoryuyut model sho podaye normalnu povedinku na osnovi zadanogo normalnogo naboru trenuvalnih danih a potim pereviryayut pravdopodibnist stvorennya modellyu viprobuvalnogo primirnika Navchannya robotiv Navchannya robotiv nathneno bezlichchyu metodiv mashinnogo navchannya pochinayuchi vid kerovanogo navchannya navchannya z pidkriplennyam i zakinchuyuchi metanavchannyam napriklad modeleagnostichnim metanavchannyam MAMN angl MAML Asociativni pravila Dokladnishe Navchannya asociativnih pravil Div takozh en Navchannya asociativnih pravil angl association rule learning ce metod mashinnogo navchannya na osnovi pravil dlya viyavlyannya vzayemozv yazkiv mizh zminnimi u velikih bazah danih Jogo priznacheno dlya viznachannya silnih pravil viyavlenih u bazah danih z vikoristannyam pevnoyi miri cikavosti angl interestingness Mashinne navchannya na osnovi pravil angl rule based machine learning ce zagalnij termin dlya bud yakogo metodu mashinnogo navchannya yakij vstanovlyuye vivchaye abo vivodit pravila dlya zberigannya manipulyuvannya abo zastosuvannya znan Viznachalnoyu harakteristikoyu algoritmu mashinnogo navchannya na osnovi pravil ye vstanovlyuvannya ta vikoristannya naboru relyacijnih pravil yaki sukupno podayut vlovleni sistemoyu znannya Ce vidminnist vid inshih algoritmiv mashinnogo navchannya yaki zazvichaj viznachayut odinichnu model yaku mozhlivo universalno zastosovuvati do bud yakogo primirnika shobi zrobiti peredbachennya Do pidhodiv mashinnogo navchannya na osnovi pravil nalezhat en navchannya asociativnih pravil ta shtuchni imunni sistemi Gruntuyuchis na ponyatti silnih pravil en en ta Arun Svami zaprovadili asociativni pravila dlya viyavlyannya zakonomirnostej mizh produktami u velikomasshtabnih danih tranzakcij zapisanih sistemami en u supermarketah Napriklad pravilo onions potatoes burger displaystyle mathrm onions potatoes Rightarrow mathrm burger znajdene v danih pro prodazhi supermarketu vkazuvatime na te sho yaksho kliyent kupuye razom cibulyu ta kartoplyu vin imovirno kupit takozh i m yaso dlya gamburgeriv Taku informaciyu mozhlivo vikoristovuvati yak osnovu dlya uhvalennya rishen shodo marketingovih zahodiv takih yak reklamni cini chi rozmishennya produkciyi Na dodachu do en asociativni pravila sogodni zastosovuyut u takih sferah zastosuvannya yak rozroblennya veb koristuvannya angl web usage mining viyavlyannya vtorgnen bezperervne virobnictvo ta bioinformatika Na vidminu vid en angl sequence mining navchannya asociativnih pravil zazvichaj ne vrahovuye poryadok elementiv u tranzakciyi chi mizh tranzakciyami Sistemi navchannya klasifikatoriv angl learning classifier systems LCS ce simejstvo algoritmiv mashinnogo navchannya na osnovi pravil yaki poyednuyut vidkrivalnu skladovu zazvichaj genetichnij algoritm z navchalnoyu skladovoyu sho vikonuye kerovane navchannya navchannya z pidkriplennyam abo nekerovane navchannya Voni pragnut vstanoviti nabir kontekstnozalezhnih pravil yaki sukupno zberigayut ta zastosovuyut znannya kuskovim chinom shob robiti peredbachennya en ILP angl Inductive logic programming ILP ce pidhid do navchannya pravil iz zastosuvannyam logichnogo programuvannya yak universalnogo podannya vhidnih prikladiv bazovih znan ta gipotez Mayuchi koduvannya vidomih bazovih znan ta naboru prikladiv podanih yak logichna baza danih faktiv sistema ILP vivoditime gipotetichnu logichnu programu yaka maye naslidkami vsi pozitivni prikladi j zhodnogo z negativnih en angl inductive programming ce sporidnena galuz u yakij dlya podannya gipotez rozglyadayut bud yaki movi programuvannya a ne lishe logichne programuvannya napriklad funkcijni programi Induktivne logichne programuvannya osoblivo korisne v bioinformatici ta obrobci prirodnoyi movi en ta en zaklali pochatkovu teoretichnu osnovu dlya induktivnogo mashinnogo navchannya v logichnij postanovci 1981 roku Shapiro stvoriv svoye pershe vtilennya sistemu visnovuvannya modelej angl Model Inference System programu movoyu Prolog yaka induktivno visnovuvala logichni programi z pozitivnih ta negativnih prikladiv Termin induktivnij tut stosuyetsya filosofskoyi indukciyi sho proponuye teoriyu dlya poyasnennya sposterezhuvanih faktiv a ne matematichnoyi indukciyi sho dovodit yakus vlastivist dlya vsih chleniv dobre vporyadkovanoyi mnozhini Modeli Vikonannya mashinnogo navchannya mozhe peredbachuvati stvorennya modeli yaka trenuyetsya na deyakih trenuvalnih danih a potim mozhe obroblyati dodatkovi dani dlya peredbachuvannya Dlya sistem mashinnogo navchannya vikoristovuvali ta doslidzhuvali rizni tipi modelej Shtuchni nejronni merezhi Dokladnishe Shtuchna nejronna merezha Div takozh Gliboke navchannya Shtuchna nejronna merezha ce vzayemoz yednana grupa vuzliv podibna do velicheznoyi merezhi nejroniv u mozku Tut kozhen kruglij vuzol poznachuye shtuchnij nejron a strilka poznachuye z yednannya vid vihodu odnogo shtuchnogo nejrona do vhodu inshogo Shtuchni nejronni merezhi ShNM angl artificial neural networks ANN abo konekcionistski sistemi ce obchislyuvalni sistemi desho nathnenni biologichnimi nejronnimi merezhami yaki skladayut mozok tvarin Taki sistemi vchatsya vikonuvati zavdannya rozglyadayuchi prikladi yak pravilo bez programuvannya bud yakimi specifichnimi dlya zavdan pravilami ShNM ce model sho gruntuyetsya na sukupnosti z yednanih vuzliv zvanih shtuchnimi nejronami angl artificial neurons yaki v zagalnih risah modelyuyut nejroni biologichnogo mozku Kozhne z yednannya yak sinapsi v biologichnomu mozku mozhe peredavati informaciyu signal vid odnogo shtuchnogo nejrona do inshogo Shtuchnij nejron yakij otrimuye signal mozhe obrobiti jogo a potim signalizuvati dodatkovim shtuchnim nejronam z yakimi jogo z yednano U zvichajnih vtilennyah ShNM signal na z yednanni mizh shtuchnimi nejronami ce dijsne chislo a vihid kozhnogo shtuchnogo nejrona obchislyuyetsya deyakoyu nelinijnoyu funkciyeyu sumi jogo vhodiv Z yednannya mizh shtuchnimi nejronami nazivayut rebrami angl edges Shtuchni nejroni ta rebra zazvichaj mayut en angl weight yaka pidlashtovuyetsya v perebigu navchannya Vaga pidvishuye abo znizhuye silu signalu na z yednanni Shtuchni nejroni mozhut mati porig takij sho signal nadsilayetsya lishe todi koli sukupnij signal dolaye cej porig Yak pravilo shtuchni nejroni vporyadkovuyut u shari angl layers Rizni shari mozhut vikonuvati rizni vidi peretvoren svoyih vhodiv Signali prohodyat vid pershogo sharu riven vhodu do ostannogo riven vihodu mozhlivo pislya kilkarazovogo prohodzhennya shariv Pervinna meta pidhodu ShNM polyagala v rozv yazuvanni zadach tak samo yak ce robiv bi lyudskij mozok Prote z chasom uvaga peremistilasya na vikonannya konkretnih zavdan sho prizvelo do vidhilen vid biologiyi Shtuchni nejronni merezhi vikoristovuvali dlya bagatoh zavdan vklyuchno z komp yuternim bachennyam rozpiznavannyam movlennya mashinnim perekladom filtruvannyam socialnih merezh en ta medichnim diagnostuvannyam Gliboke navchannya angl deep learning skladayetsya z chislennih prihovanih shariv u shtuchnij nejronnij merezhi Cej pidhid namagayetsya zmodelyuvati te yak lyudskij mozok peretvoryuye svitlo ta zvuk u bachennya ta sluh Sered uspishnih zastosuvan glibokogo navchannya komp yuterne bachennya ta rozpiznavannya movlennya Dereva rishen Dokladnishe Navchannya derev rishen Derevo rishen yake pokazuye jmovirnist vizhivannya pasazhiriv na Titaniku Navchannya derev rishen angl decision tree learning vikoristovuye derevo rishen yak peredbachuvalnu model dlya perehodu vid sposterezhen pro ob yekt podanih u gilkah do visnovkiv shodo cilovogo znachennya dlya ob yekta podanih u listkah Ce odin iz pidhodiv do peredbauvalnogo modelyuvannya yakij vikoristovuyut u statistici dobuvanni danih ta mashinnomu navchanni Derevni modeli de cilova zminna mozhe nabuvati diskretnogo naboru znachen nazivayut klasifikacijnimi derevami angl classification trees u cih derevnih strukturah listki podayut mitki klasiv a gilki podayut kon yunkciyi oznak yaki vedut do cih mitok klasiv Dereva rishen de cilova zminna mozhe nabuvati neperervnih znachen zazvichaj dijsnih chisel nazivayut regresijnimi derevami angl regression trees V analizi rishen derevo rishen mozhlivo vikoristovuvati dlya vizualnogo ta yavnogo podannya rishen ta uhvalennya rishen V dobuvanni danih derevo rishen opisuye dani ale otrimane klasifikacijne derevo mozhe buti vhodom dlya uhvalyuvannya rishen Opornovektorni mashini Dokladnishe Opornovektorna mashina Opornovektorni mashini OVM angl support vector machines SVM takozh znani yak opornovektorni merezhi angl support vector networks ta metod opornih vektoriv ce nabir pov yazanih metodiv kerovanogo navchannya yaki vikoristovuyut dlya klasifikuvannya ta regresiyi Mayuchi nabir trenuvalnih prikladiv kozhen z yakih poznacheno yak nalezhnij do odniyeyi z dvoh kategorij algoritm trenuvannya OVM buduye model yaka peredbachuye chi nalezhit novij priklad do odniyeyi kategoriyi Algoritm trenuvannya OVM nejmovirnisnij binarnij linijnij klasifikator hocha isnuyut taki metodi yak en dlya vikoristannya OVM u postanovci jmovirnisnogo klasifikuvannya Na dodachu do vikonannya linijnogo klasifikuvannya OVM mozhut efektivno vikonuvati nelinijne klasifikuvannya z vikoristannyam tak zvanogo yadrovogo tryuku sho neyavno vidobrazhuye yihni vhodi do prostoriv oznak visokoyi rozmirnosti Regresijnij analiz Dokladnishe Regresijnij analiz Ilyustraciya linijnoyi regresiyi na nabori danih Regresijnij analiz angl regression analysis ohoplyuye velikij spektr statistichnih metodiv dlya ocinyuvannya zv yazku mizh vhidnimi zminnimi ta pov yazanimi z nimi oznakami Jogo najposhirenishim vidom ye linijna regresiya de malyuyetsya odna liniya yaka najkrashe dopasovuyetsya do zadanih danih vidpovidno do matematichnogo kriteriyu takogo yak en Ostannij chasto rozshiryuyut za dopomogoyu metodiv regulyarizaciyi shobi pom yakshuvati nadmirne dopasovuvannya ta zmishennya yak u grebenevij regresiyi Koli jdetsya pro nelinijni zadachi do osnovnih modelej nalezhat polinomialna regresiya napriklad vzhivana dlya dopasovuvannya liniyi trendu v Microsoft Excel logistichna regresiya chasto vzhivana u statistichnomu klasifikuvanni abo navit yadrova regresiya yaka zaprovadzhuye nelinijnist koristuyuchis yadrovim tryukom dlya neyavnogo vidobrazhennya vhidnih zminnih do prostoru vishoyi rozmirnosti Bayesovi merezhi Dokladnishe Bayesova merezha Prosta bayesova merezha Dosh vplivaye na vmikannya obpriskuvacha i yak dosh tak i obpriskuvach vplivayut na te chi mokra trava Bayesova merezha angl Bayesian network merezha perekonan angl belief network abo oriyentovana aciklichna grafova model angl directed acyclic graphical model ce jmovirnisna grafova model yaka podaye nabir vipadkovih velichin ta yihnih en za dopomogoyu oriyentovanogo aciklichnogo grafa OAG angl directed acyclic graph DAG Napriklad bayesova merezha mozhe podavati jmovirnisni zv yazki mizh zahvoryuvannyami ta simptomami Za nayavnih simptomiv cyu merezhu mozhlivo vikoristovuvati dlya obchislennya jmovirnosti nayavnosti riznih zahvoryuvan Isnuyut efektivni algoritmi yaki vikonuyut visnovuvannya j navchannya Bayesovi merezhi sho modelyuyut poslidovnosti zminnih napriklad signali movlennya abo bilkovi poslidovnosti nazivayut dinamichnimi bayesovimi merezhami Uzagalnennya bayesovih merezh yaki mozhut podavati j rozv yazuvati zadachi uhvalyuvannya rishen v umovah neviznachenosti nazivayut en Gaussovi procesi Dokladnishe Gaussiv proces Priklad regresiyi gaussovogo procesu peredbachennya u porivnyanni z inshimi regresijnimi modelyami Gaussiv proces angl Gaussian process ce stohastichnij proces u yakomu kozhna skinchenna sukupnist vipadkovih zminnih u procesi maye bagatovimirnij normalnij rozpodil i vin gruntuyetsya na poperedno viznachenij en abo yadri angl kernel yake modelyuye yak pari tochok spivvidnosyatsya odna z odnoyu zalezhno vid yihnogo misceznahodzhennya Za zadanogo naboru sposterezhenih tochok abo prikladiv vhodiv vihodiv rozpodil nesposterezhuvanogo vihodu novoyi tochki yak funkciyu yiyi vhidnih danih mozhlivo bezposeredno obchisliti divlyachis na sposterezheni tochki ta kovariaciyi mizh cimi tochkami ta novoyu nebachenoyu tochkoyu Gaussovi procesi ce populyarni surogatni modeli v bayesovij optimizaciyi yaki vikoristovuyut shobi optimizuvati giperparametri Genetichni algoritmi Dokladnishe Genetichnij algoritm Genetichnij algoritm GA angl genetic algorithm GA ce algoritm poshuku ta evristichna metodika yaka imituye proces prirodnogo doboru vikoristovuyuchi taki metodi yak en ta shreshuvannya shobi stvoryuvati novi genotipi u nadiyi znajti dobri rozv yazki pevnoyi zadachi U mashinnomu navchanni genetichni algoritmi vikoristovuvali v 1980 1990 h rokah I navpaki metodiki mashinnogo navchannya vikoristovuvali shobi pokrashuvati produktivnist genetichnih ta evolyucijnih algoritmiv Funkciyi perekonan Dokladnishe en Teoriya funkcij perekonan angl theory of belief functions zvana takozh teoriyeyu svidchen angl evidence theory ta teoriyeyu Dempstera Shafera ce zagalna sistema dlya mirkuvan iz neviznachenistyu zi zrozumilimi zv yazkami z inshimi sistemami takimi yak imovirnist mozhlivist ta en Ci teoretichni sistemi mozhlivo rozglyadati yak svogo rodu navchalnij mehanizm voni mozhut mati deyaki podibni vlastivosti shodo togo yak poyednuyutsya svidchennya napriklad pravilo poyednuvannya Dempstera tochno yak poyednuvav bi jmovirnosti bayesiv pidhid na osnovi funkcij masi jmovirnosti proyasniti Prote isnuye bagato zasterezhen do cih funkcij perekonan pri porivnyanni z bayesovimi pidhodami z metoyu vklyuchennya neobiznanosti ta en Ci pidhodi funkcij perekonan yaki vtilyuyut u galuzi mashinnogo navchannya zazvichaj vikoristovuyut pidhid zlittya riznih ansamblevih metodiv shobi krashe vporuvatisya z en nedostatnimi vibirkami ta problemami nechitkosti klasiv z yakimi standartnij pidhid mashinnogo navchannya yak pravilo maye skladnoshi Prote obchislyuvalna skladnist cih algoritmiv zalezhit vid kilkosti sudzhen klasiv i mozhe prizvoditi do znachno bilshogo obchislyuvalnogo chasu porivnyano z inshimi pidhodami mashinnogo navchannya Trenuvannya modelej Yak pravilo shobi mogti zdijsnyuvati tochni prognozi modeli mashinnogo navchannya vimagayut velikoyi kilkosti nadijnih danih Pri trenuvanni modeli mashinnogo navchannya inzheneram mashinnogo navchannya potribno namititi ta zibrati veliku ta reprezentativnu vibirku danih Dani trenuvalnogo naboru mozhut mati riznij harakter takij yak korpus tekstiv nabir zobrazhen danih davachiv chi danih zibranih z okremih koristuvachiv sluzhbi Pri trenuvanni modeli mashinnogo navchannya slid pilnuvati perenavchannya Natrenovani modeli otrimani z uperedzhenih abo neocinenih danih mozhut prizvoditi do vikrivlenih abo nebazhanih peredbachen Uperedzheni modeli mozhut prizvoditi do shkidlivih rezultativ vidtak posilyuyuchi negativnij vpliv na suspilstvo ta cili Potencijnim rezultatom togo sho dani ne bulo povnistyu pidgotovleno dlya navchannya mozhe stavati en Etika mashinnogo navchannya staye galuzzyu doslidzhennya pomitno integrovanoyu v komandah inzheneriv mashinnogo navchannya Federativne navchannya Dokladnishe Federativne navchannya Federativne navchannya angl federated learning ce pristosovana forma en dlya trenuvannya modelej mashinnogo navchannya yaka decentralizuye proces trenuvannya dozvolyayuchi pidtrimuvati konfidencijnist koristuvachiv ne nadsilayuchi yihni dani do centralizovanogo servera Ce takozh pidvishuye efektivnist zavdyaki decentralizaciyi procesu trenuvannya na bagatoh pristroyah Napriklad Gboard vikoristovuye federativne mashinne navchannya dlya trenuvannya modelej peredbachuvannya poshukovih zapitiv na mobilnih telefonah koristuvachiv bez neobhidnosti nadsilati okremi poshukovi zapiti nazad do Google ZastosuvannyaIsnuye bagato zastosuvan mashinnogo navchannya zokrema en en Analiz povedinki koristuvachiv Analiz tonalnosti tekstu Analiz finansovih rinkiv en en Bankivska diyalnist Bioinformatika Biheviorizm Viyavlyannya en Viyavlyannya shahrajstv iz kreditnimi kartkami en Gromadyanska nauka Dovedennya teorem Ekonomika en Internet reklama Informacijnij poshuk en Klasifikuvannya poslidovnostej DNK Klimatologiya Komp yuterne bachennya en en Marketing en Mashinnij pereklad en Movoznavstvo Nejrokomp yuterni interfejsi Obrobka prirodnoyi movi Optimizaciya en en Poshukovi sistemi Prognozuvannya chasovih ryadiv Programna inzheneriya Rekomendacijni sistemi Rozpiznavannya movlennya Rozpiznavannya rukopisnogo vvedennya en Rozuminnya prirodnoyi movi en Silske gospodarstvo Strahuvannya Telekomunikaciyi en en Hemoinformatika en 2006 roku provajder mediaposlug Netflix proviv pershe zmagannya en shobi znajti programu yaka bi krashe peredbachuvala vpodobannya koristuvachiv ta pidvishila tochnist nayavnogo algoritmu porad filmiv Cinematch shonajmenshe na 10 Spilna komanda sho skladalasya z doslidnikiv z AT amp T Labs Research u spivpraci z komandami Big Chaos ta Pragmatic Theory stvorila en otrimavshi 2009 roku golovnij priz sumoyu 1 miljon dolariv Nevdovzi pislya vruchennya nagorodi Netflix zrozumili sho ocinki glyadachiv ne najkrashij pokaznik yihnih modelej pereglyadu use ye poradoyu j voni zminili svij mehanizm porad vidpovidnim chinom 2010 roku The Wall Street Journal pisala pro firmu Rebellion Research ta yiyi vikoristannya mashinnogo navchannya dlya prognozuvannya finansovoyi krizi 2012 roku spivzasnovnik Sun Microsystems en zrobiv prognoz sho v najblizhchi dva desyatilittya 80 robochih misc likariv bude vtracheno na korist avtomatizovanogo medichnogo diagnostichnogo programnogo zabezpechennya z mashinnim navchannyam 2014 roku bulo povidomleno sho algoritm mashinnogo navchannya bulo zastosovano v galuzi istoriyi mistectva dlya vivchennya obrazotvorchogo zhivopisu i sho vin mozhlivo viyaviv ranishe neviznani vplivi sered hudozhnikiv 2019 roku Springer Nature opublikuvav pershu doslidnicku knigu stvorenu za dopomogoyu mashinnogo navchannya 2020 roku tehnologiyu mashinnogo navchannya vikoristovuvali shobi dopomogti doslidnikam staviti diagnozi j rozroblyati liki vid COVID 19 Neshodavno mashinne navchannya bulo zastosovano dlya prognozuvannya proekologichnoyi povedinki mandrivnikiv Neshodavno tehnologiyu mashinnogo navchannya bulo takozh zastosovano dlya optimizaciyi produktivnosti ta teplovoyi povedinki smartfoniv na osnovi vzayemodiyi koristuvacha z telefonom Za pravilnogo zastosuvannya algoritmi mashinnogo navchannya AMN mozhut vikoristovuvati shirokij spektr harakteristik kompanij dlya prognozuvannya dohodiv vid akcij bez perenavchannya Vikoristovuyuchi efektivne konstruyuvannya oznak ta poyednuyuchi prognozi AMN mozhut porodzhuvati rezultati sho znachno perevershuyut otrimuvani za dopomogoyu bazovih linijnih metodik yak ot en ObmezhennyaPopri te sho mashinne navchannya zminilo deyaki sferi programi mashinnogo navchannya chasto ne dayut ochikuvanih rezultativ Prichin dlya cogo bagato brak pridatnih danih brak dostupu do danih uperedzhenist danih problemi konfidencijnosti nepravilno obrani zavdannya j algoritmi nepravilni instrumenti ta lyudi brak resursiv i problemi z ocinyuvannyam She odin znachnij viklik stanovit teoriya chornoyi skrinki Chorna skrinka stosuyetsya situaciyi koli algoritm abo proces stvorennya rezultatu povnistyu neprozorij sho oznachaye sho navit rozrobniki algoritmu ne mozhut pereviriti zakonomirnist vidilenu mashinoyu z danih Specialnij komitet Palati lordiv yakij stverdzhuvav sho taka sistema intelektu yaka mozhe mati suttyevij vpliv na zhittya lyudini ne vvazhatimetsya prijnyatnoyu yaksho vona ne nadavatime povnogo ta zadovilnogo poyasnennya rishen yaki vona uhvalyuye 2018 roku bezpilotnij avtomobil vid Uber ne zmig viyaviti pishohoda yakij zaginuv pislya zitknennya Sprobi vikoristati mashinne navchannya v ohoroni zdorov ya za dopomogoyu sistemi IBM Watson ne uvinchalisya uspihom navit pislya bagatoh rokiv i milyardiv dolariv investicij Chatbot Microsoft zvinuvachuvali u stvorenni vorozhih ta obrazlivih vidpovidej na zvernennya jogo koristuvachiv Mashinne navchannya vikoristovuvali yak strategiyu dlya utochnennya svidchen pov yazanih iz sistematichnim recenzuvannyam i zbilshennyam navantazhennya na recenzentiv u zv yazku zi zbilshennyam biomedichnoyi literaturi Hocha vono pokrashilosya za dopomogoyu trenuvalnih naboriv vono she ne rozvinuvsya dostatno shobi zmenshiti roboche navantazhennya bez obmezhennya neobhidnoyi chutlivosti dlya samih doslidzhen rezultativ Uperedzhennya Dokladnishe en Pidhodi mashinnogo navchannya zokrema mozhut strazhdati vid riznih uperedzhen danih angl data biases Sistema mashinnogo navchannya natrenovana konkretno na potochnih kliyentah mozhe viyavitisya nezdatnoyu peredbachiti potrebi novih grup kliyentiv ne podanih u trenuvalnih danih Pri navchanni na stvorenih lyudmi danih mashinne navchannya cilkom mozhe pidhopiti konstitucijni ta nesvidomi uperedzhennya yaki vzhe prisutni v suspilstvi Bulo pokazano sho movni modeli navcheni z danih mistyat lyudski uperedzhennya V eksperimenti yakij provela ProPublica zhurnalistska rozsliduvalska organizaciya rozuminnya algoritmu mashinnogo navchannya shodo rivniv recidivizmu uv yaznenih nepravilno mitilo chornoshkirih obvinuvachenih yak visokorizikovih udvichi chastishe nizh biloshkirih 2015 roku Google na fotografiyah chasto poznachuvala temnoshkirih lyudej yak goril i 2018 roku ce vse she ne bulo rozv yazano yak slid a yak bulo povidomleno Google natomist vikoristovuvala obhidnij shlyah usuvayuchi vsih goril iz trenuvalnih danih i tomu bula vzagali nezdatna rozpiznati spravzhnih goril Podibni problemi z rozpiznavannyam nebilih lyudej bulo viyavleno v bagatoh inshih sistemah 2016 roku Microsoft protestuvala chat bota yakij navchavsya z Twitter i vin shvidko pidhopiv rasistsku ta seksistsku movu Cherez taki vikliki efektivne vikoristannya mashinnogo navchannya v deyakih oblastyah mozhe vimagati trivalishogo pristosovuvannya Zanepokoyennya shodo en u mashinnomu navchanni tobto zmenshennya uperedzhenosti v mashinnomu navchanni ta spriyannya jogo vikoristannyu dlya blaga lyudini vse chastishe vislovlyuyut naukovci zi shtuchnogo intelektu zokrema Fej Fej Li yaka nagaduye inzheneram sho U ShI nemaye nichogo shtuchnogo Vin nathnennij lyudmi vin stvorenij lyudmi i sho najvazhlivishe vin vplivaye na lyudej Ce potuzhnij instrument yakij mi lishe pochinayemo rozumiti i ce velika vidpovidalnist Poyasnennist Dokladnishe Poyasnennij shtuchnij intelekt Poyasne nnij ShI angl Explainable AI XAI abo interpretovnij ShI angl Interpretable AI abo poyasnenne mashinne navchannya angl Explainable Machine Learning XML ce shtuchnij intelekt ShI v yakomu lyudi mozhut rozumiti rishennya abo peredbachennya zrobleni cim ShI Ce kontrastuye z koncepciyeyu chornoyi skrinki v mashinnomu navchanni de navit yiyi rozrobniki ne mozhut poyasniti chomu ShI prijshov do pevnogo rishennya Udoskonalyuyuchi mentalni modeli koristuvachiv sistem na osnovi ShI ta rujnuyuchi yihni hibni uyavlennya poyasnennij ShI obicyaye dopomogti koristuvacham diyati efektivnishe Poyasnennij ShI mozhe buti vtilennyam socialnogo prava na poyasnennya Perenavchannya Dokladnishe Perenavchannya Sinya liniya mozhe buti prikladom perenavchannya linijnoyi funkciyi cherez vipadkovij shum Shilyannya do poganoyi pereuskladnenoyi teoriyi shiblenoyi takim chinom shobi vidpovidati vsim minulim trenuvalnim danim nazivayut perenavchannyam Bagato sistem namagayutsya znizhuvati perenavchannya vinagorodzhuyuchi teoriyu vidpovidno do togo naskilki dobre vona dopasovuyetsya do danih ale shtrafuyuchi teoriyu vidpovidno do togo naskilki vona skladna Inshi obmezhennya ta vrazlivosti Uchni takozh mozhut rozcharovuvati vivchivshi ne toj urok Igrashkovij priklad klasifikator zobrazhen navchenij lishe na zobrazhennyah korichnevih konej i chornih kotiv mozhe zrobiti visnovok sho vsi korichnevi plyami jmovirno ye kinmi Priklad iz realnogo svitu polyagaye v tomu sho na vidminu vid lyudej suchasni klasifikatori zobrazhen chasto roblyat visnovki ne na osnovi prostorovih vidnosin mizh skladovimi zobrazhennya a navchayutsya zv yazkiv mizh pikselyami yakih lyudi ne pomichayut ale yaki vse odno korelyuyut iz zobrazhennyami okremih vidiv realnih ob yektiv Zmina cih vizerunkiv na zakonnomu zobrazhenni mozhe prizvesti do zmagalnih angl adversarial zobrazhen yaki sistema klasifikuye nepravilno Zmagalni vrazlivosti takozh mozhut vinikati v nelinijnih sistemah abo viplivati z neshablonnih zburen Dlya deyakih sistem mozhlivo zminiti vihid zminivshi lishe odin zmagalno obranij piksel Modeli mashinnogo navchannya chasto vrazlivi do manipulyacij ta abo uhilennya cherez en Doslidniki prodemonstruvali yak mozhlivo nepomitno rozmishuvati chorni hodi v klasifikuvalnih napriklad dopisiv yak spam ta dobre vidimih ne spam modelej mashinnogo navchannya yaki chasto rozroblyayut ta abo trenuyut treti storoni Storoni mozhut zminiti klasifikaciyu bud yakogo vhodu zokrema u vipadkah dlya yakih zabezpechuyetsya pevnij tip en mozhlivo vklyuchno z dostupom do biloyi skrinki Ocinyuvannya modelejKlasifikaciyu modelej mashinnogo navchannya mozhlivo zatverdzhuvati za dopomogoyu metodik ocinyuvannya tochnosti takih yak metod pritrimuvannya angl holdout yakij rozbivaye dani na trenuvalnij ta viprobuvalnij nabori zazvichaj 2 3 trenuvalnogo naboru ta 1 3 viprobuvalnogo j ocinyuye produktivnist trenovanoyi modeli na viprobuvalnomu nabori Dlya porivnyannya metod K kratnogo perehresnogo zatverdzhuvannya angl K fold cross validation vipadkovim chinom rozbivaye dani na K pidmnozhin a potim vikonuye K eksperimentiv kozhen vidpovidno z 1 pidmnozhinoyu dlya ocinyuvannya ta reshtoyu K 1 pidmnozhin dlya trenuvannya modeli Na dodachu do metodiv pritrimuvannya ta perehresnogo zatverdzhuvannya dlya ocinyuvannya tochnosti modeli mozhlivo vikoristovuvati natyazhku angl bootstrap yaka vibiraye z naboru danih n primirnikiv iz zaminoyu Na dodachu do zagalnoyi tochnosti angl accuracy doslidniki chasto povidomlyayut chutlivist ta specifichnist angl sensitivity and specificity sho oznachayut istinnopozitivnij riven IPR angl True Positive Rate TPR ta istinnonegativnij riven INR angl True Negative Rate TNR vidpovidno Analogichno doslidniki inodi povidomlyayut hibnopozitivnij riven HPR angl false positive rate FPR a takozh hibnonegativnij riven HNR angl false negative rate FNR Prote ci rivni ce vidnoshennya yaki ne rozkrivayut svoyih chiselnikiv ta znamennikiv Odnim z efektivnih metodiv virazhennya diagnostichnoyi spromozhnosti modeli ye en ZRH angl total operating characteristic TOC ZRH pokazuye chiselniki ta znamenniki zaznachenih vishe rivniv takim chinom ZRH nadaye bilshe informaciyi nizh zagalnovzhivana robocha harakteristika prijmacha RHP angl receiver operating characteristic ROC ta pov yazana z RHP plosha pid ciyeyu krivoyu PPK angl area under the curve AUC EtikaDiv takozh en en ta Etika shtuchnogo intelektu Mashinne navchannya stavit bezlich etichnih pitan Sistemi trenovani na naborah danih zibranih z uperedzhennyami mozhut proyavlyati ci uperedzhennya pri vikoristanni en ocifrovuyuchi takim chinom kulturni zaboboni Napriklad 1988 roku britanska komisiya z pitan rasovoyi rivnosti viyavila sho medichna shkola sv Georgiya vikoristovuvala komp yuternu programu natrenovanu na osnovi danih poperednogo personalu prijmalnoyi komisiyi j cya programa vidmovila majzhe 60 kandidatam yaki buli abo zhinkami abo mali neyevropejski imena Vikoristannya danih pro najmannya na robotu vid firmi z rasistskoyu politikoyu najmu mozhe prizvesti do togo sho sistema mashinnogo navchannya dublyuvatime cyu uperedzhenist ocinyuyuchi pretendentiv na posadu za shozhistyu z poperednimi uspishnimi kandidatami She odin priklad mistit peredbachuvalnij algoritm peredbachuvalnogo policejskogo patrulyuvannya kompaniyi en yakij prizviv do neproporcijno visokogo rivnya nadmirnogo policejskogo kontrolyu u bidnih spilnotah ta spilnotah menshin pislya trenuvannya na istorichnih danih pro zlochinnist V toj chas yak vidpovidalne zbirannya danih ta dokumentuvannya algoritmichnih pravil yaki vikoristovuye sistema vvazhayut kritichno vazhlivoyu chastinoyu mashinnogo navchannya deyaki doslidniki zvinuvachuyut u vrazlivosti mashinnogo navchannya do uperedzhen brak uchasti ta predstavnictva menshin u galuzi ShI Spravdi za doslidzhennyam provedenim Asociaciyeyu doslidzhen u galuzi obchislen angl Computing Research Association CRA 2021 roku zhinochij fakultet skladaye lishe 16 1 usih chleniv fakultetu yaki zoseredzhuyutsya na ShI u dekilkoh universitetah svitu Krim togo sered grupi novih rezidentiv SShA vipusknikiv doktorantur ShI 45 identifikuvali sebe yak bili 22 4 yak aziati 3 2 yak ispanci i 2 4 yak afroamerikanci sho dodatkovo demonstruye vidsutnist riznomanitnosti u galuzi ShI ShI mozhe buti dobre osnashenim dlya uhvalyuvannya rishen u tehnichnih sferah yaki znachnoyu miroyu pokladayutsya na dani ta istorichnu informaciyu Ci rishennya spirayutsya na ob yektivnist i logichnu argumentaciyu Oskilki lyudski movi mistyat uperedzhennya mashini navcheni na movnih korpusah tekstiv obov yazkovo takozh navchatsya cih uperedzhen Inshi vidi etichnih viklikiv ne pov yazanih z osobistimi uperedzhennyami sposterigayutsya v ohoroni zdorov ya Sered medichnih pracivnikiv ye zanepokoyennya sho ci sistemi mozhe buti rozrobleno ne v interesah suspilstva a yak mashini dlya otrimuvannya dohodu Osoblivo ce stosuyetsya Spoluchenih Shtativ de isnuye davnya etichna dilema shodo pokrashennya ohoroni zdorov ya ale takozh i zbilshennya pributkiv Napriklad algoritmi mozhe buti rozrobleno dlya vipisuvannya paciyentam nepotribnih testiv abo likiv u yakih vlasniki algoritmu mayut chastku V mashinnogo navchannya v ohoroni zdorov ya isnuye potencial nadati fahivcyam dodatkovij instrument dlya diagnostuvannya likuvannya ta planuvannya shlyahiv oduzhannya paciyentiv ale dlya cogo potribno pom yakshuvati ci uperedzhennya Aparatne zabezpechennyaPochinayuchi z 2010 h rokiv progres yak v algoritmah mashinnogo navchannya tak i v komp yuternomu obladnanni prizviv do poyavi efektivnishih metodiv trenuvannya glibokih nejronnih merezh osoblivoyi vuzkoyi pidoblasti mashinnogo navchannya yaki mistyat bagato shariv nelinijnih prihovanih vuzliv Do 2019 roku grafichni procesori GP chasto zi specialnimi vdoskonalennyami dlya ShI vitisnili CP yak panivnij metod trenuvannya velikomasshtabnogo komercijnogo hmarnogo ShI OpenAI ocinila aparatni obchislennya yaki vikoristovuvali v najbilshih proyektah glibokogo navchannya vid AlexNet 2012 i do AlphaZero 2017 i viyavila 300 000 kratne zbilshennya neobhidnogo obsyagu obchislen iz tendenciyeyu podvoyennya chasu kozhni 3 4 misyaci Nejromorfni fizichni nejronni merezhi en angl physical neural network abo nejromorfnij komp yuter angl Neuromorphic computer ce odin iz vidiv shtuchnih nejronnih merezh u yakomu vikoristovuyut elektrichno pidlashtovuvanij material dlya imituvannya funkciyuvannya nejronnogo sinapsa Termin fizichna nejronna merezha vikoristovuyut shobi pidkresliti zalezhnist vid fizichnogo aparatnogo zabezpechennya yake vikoristovuyut dlya imituvannya nejroniv na protivagu do programnih pidhodiv Zagalnishe cej termin zastosovnij i do inshih shtuchnih nejronnih merezh u yakih vikoristovuyut memristor abo inshij elektrichno pidlashtovuvanij opirnij material shob imituvati nejronnij sinaps Vbudovuvane mashinne navchannya Vbudovane mashinne navchannya angl Embedded Machine Learning ce pidgaluz mashinnogo navchannya de model mashinnogo navchannya pracyuye na vbudovanih sistemah z obmezhenimi obchislyuvalnimi resursami yak ot nosimih komp yuterah en ta mikrokontrolerah Ekspluataciya modeli mashinnogo navchannya u vbudovanih pristroyah usuvaye neobhidnist peredavannya j zberigannya danih na hmarnih serverah dlya podalshoyi obrobki vidtak zmenshuyuchi virivannya danih ta protikannya konfidencijnosti sho vidbuvayutsya cherez peredavannya danih a takozh zvodit do minimumu kradizhku intelektualnoyi vlasnosti osobistih danih ta komercijnih tayemnic Vbudovuvane mashinne navchannya mozhlivo zastosovuvati za dopomogoyu kilkoh metodik vklyuchno z aparatnim priskorennyam vikoristannyam en optimizuvannyam modelej mashinnogo navchannya ta bagatma inshimi Programne zabezpechennyaDo programnih paketiv sho mistyat riznomanitni algoritmi mashinnogo navchannya nalezhat nastupni Vilne ta vidkrite programne zabezpechennya Caffe Deeplearning4j en en en en Keras en en en en Microsoft Cognitive Toolkit en en MXNet en en pandas ROOT TMVA z ROOT scikit learn en Spark MLlib en TensorFlow Torch PyTorch Weka en XGBoost en Vlasnicke programne zabezpechennya z vilnimi abo vidkritimi redakciyami en en Vlasnicke programne zabezpechennya Amazon Machine Learning en KnowledgeSTUDIO Azure Machine Learning en en en en KXEN Modeler en Mathematica MATLAB en en en en en en en en Splunk STATISTICA Data MinerZhurnali Journal of Machine Learning Research Machine Learning Nature Machine Intelligence en en Konferenciyi en en angl ACL en angl ECML PKDD en angl CIBB en angl ICML Mizhnarodna konferenciya z navchannya podan angl ICLR en angl IROS en angl KDD en angl NeurIPS Div takozhAvtomatizovane mashinne navchannya proces avtomatizaciyi mashinnogo navchannya Veliki dani informacijni resursi harakterizovani velikim obsyagom shvidkistyu ta riznomanittyam en paradigma programuvannya Kvantove mashinne navchannya en fr Spisok naboriv danih dlya doslidzhen z mashinnogo navchannya OAIS 2 0PrimitkiViznachennya bez yavnogo programuvannya chasto pripisuyut Arturovi Semyuelyu yakij pridumav termin mashinne navchannya 1959 roku ale cyu frazu ne znajdeno doslivno v tij publikaciyi j vona mozhe buti parafrazoyu sho z yavilasya piznishe Div Parafrazuyuchi Artura Semyuelya 1959 pitannya take Yak komp yuteri mozhut navchatisya rozv yazuvati zadachi bez yavnogo programuvannya u Koza John R Bennett Forrest H Andre David Keane Martin A 1996 Automated Design of Both the Topology and Sizing of Analog Electrical Circuits Using Genetic Programming Artificial Intelligence in Design 96 Artificial Intelligence in Design 96 angl Springer Dordrecht s 151 170 doi 10 1007 978 94 009 0279 4 9 ISBN 978 94 010 6610 5 What is Machine Learning IBM amer Procitovano 27 chervnya 2023 Zhou Victor 20 grudnya 2019 Machine Learning for Beginners An Introduction to Neural Networks Medium angl Arhiv originalu za 9 bereznya 2022 Procitovano 15 serpnya 2021 Hu Junyan Niu Hanlin Carrasco Joaquin Lennox Barry Arvin Farshad 2020 Voronoi Based Multi Robot Autonomous Exploration in Unknown Environments via Deep Reinforcement Learning IEEE Transactions on Vehicular Technology angl 69 12 14413 14423 doi 10 1109 tvt 2020 3034800 ISSN 0018 9545 S2CID 228989788 Yoosefzadeh Najafabadi Mohsen Hugh Earl Tulpan Dan Sulik John Eskandari Milad 2021 Application of Machine Learning Algorithms in Plant Breeding Predicting Yield From Hyperspectral Reflectance in Soybean Front Plant Sci angl 11 624273 doi 10 3389 fpls 2020 624273 PMC 7835636 PMID 33510761 2006 Pattern Recognition and Machine Learning angl Springer ISBN 978 0 387 31073 2 Mashinne navchannya ta rozpiznavannya sistemi angl pattern recognition mozhna rozglyadati yak dvi grani odnogo polya vii 1998 Data Mining and Statistics What s the connection Computing Science and Statistics angl 29 1 3 9 Samuel Arthur 1959 Some Studies in Machine Learning Using the Game of Checkers IBM Journal of Research and Development angl 3 3 210 229 CiteSeerX 10 1 1 368 2254 doi 10 1147 rd 33 0210 S2CID 2126705 R Kohavi and F Provost Glossary of terms Machine Learning vol 30 no 2 3 pp 271 274 1998 angl Gerovitch Slava 9 kvitnya 2015 How the Computer Got Its Revenge on the Soviet Union Nautilus angl Arhiv originalu za 22 veresnya 2021 Procitovano 19 veresnya 2021 Lindsay Richard P 1 veresnya 1964 The Impact of Automation On Public Administration Western Political Quarterly angl 17 3 78 81 doi 10 1177 106591296401700364 ISSN 0043 4078 S2CID 154021253 Arhiv originalu za 6 zhovtnya 2021 Procitovano 6 zhovtnya 2021 History and Evolution of Machine Learning A Timeline WhatIs angl Procitovano 8 grudnya 2023 Milner Peter M 1993 The Mind and Donald O Hebb Scientific American angl 268 1 124 129 Bibcode 1993SciAm 268a 124M doi 10 1038 scientificamerican0193 124 ISSN 0036 8733 JSTOR 24941344 PMID 8418480 Science The Goof Button Time magazine 18 August 1961 angl Nilsson N Learning Machines McGraw Hill 1965 angl Duda R Hart P Pattern Recognition and Scene Analysis Wiley Interscience 1973 angl S Bozinovski Teaching space A representation concept for adaptive pattern classification COINS Technical Report No 81 28 Computer and Information Science Department University of Massachusetts at Amherst MA 1981 https web cs umass edu publication docs 1981 UM CS 1981 028 pdf Arhivovano 2021 02 25 u Wayback Machine angl Mitchell T 1997 Machine Learning angl McGraw Hill s 2 ISBN 978 0 07 042807 2 2008 The Annotation Game On Turing 1950 on Computing Machinery and Intelligence u Epstein Robert Peters Grace red The Turing Test Sourcebook Philosophical and Methodological Issues in the Quest for the Thinking Computer angl Kluwer s 23 66 ISBN 9781402067082 arhiv originalu za 9 bereznya 2012 procitovano 11 grudnya 2012 Introduction to AI Part 1 Edzion angl 8 grudnya 2020 Arhiv originalu za 18 lyutogo 2021 Procitovano 9 grudnya 2020 Sindhu V Nivedha S Prakash M February 2020 An Empirical Science Research on Bioinformatics in Machine Learning Journal of Mechanics of Continua and Mathematical Sciences angl 7 doi 10 26782 jmcms spl 7 2020 02 00006 Sarle Warren S 1994 Neural Networks and statistical models SUGI 19 proceedings of the Nineteenth Annual SAS Users Group International Conference angl SAS Institute s 1538 50 ISBN 9781555446116 OCLC 35546178 Norvig Peter 2003 1995 Artificial Intelligence A Modern Approach vid 2nd Prentice Hall ISBN 978 0137903955 angl Langley Pat 2011 The changing science of machine learning Machine Learning angl 82 3 275 9 doi 10 1007 s10994 011 5242 y Le Roux Nicolas Bengio Yoshua Fitzgibbon Andrew 2012 Improving First and Second Order Methods by Modeling Uncertainty U Sra Suvrit Nowozin Sebastian Wright Stephen J red Optimization for Machine Learning angl MIT Press s 404 ISBN 9780262016469 Arhiv originalu za 17 sichnya 2023 Procitovano 12 listopada 2020 Bzdok Danilo Krzywinski Martin 2018 Statistics versus Machine Learning Nature Methods angl 15 4 233 234 doi 10 1038 nmeth 4642 PMC 6082636 PMID 30100822 10 veresnya 2014 statistics and machine learning angl reddit Arhiv originalu za 18 zhovtnya 2017 Procitovano 1 zhovtnya 2014 Hung et al Algorithms to Measure Surgeon Performance and Anticipate Clinical Outcomes in Robotic Surgery JAMA Surg 2018 angl Cornell University Library August 2001 Breiman Statistical Modeling The Two Cultures with comments and a rejoinder by the author Statistical Science angl 16 3 doi 10 1214 ss 1009213726 S2CID 62729017 Arhiv originalu za 26 chervnya 2017 Procitovano 8 serpnya 2015 Gareth James Daniela Witten Trevor Hastie Robert Tibshirani 2013 An Introduction to Statistical Learning angl Springer s vii Arhiv originalu za 23 chervnya 2019 Procitovano 25 zhovtnya 2014 Ramezanpour A Beam A L Chen J H Mashaghi A 17 listopada 2020 Statistical Physics for Medical Diagnostics Learning Inference and Optimization Algorithms Diagnostics angl 10 11 972 doi 10 3390 diagnostics10110972 PMC 7699346 PMID 33228143 Mashaghi A Ramezanpour A 16 bereznya 2018 Statistical physics of medical diagnostics Study of a probabilistic model Physical Review E angl 97 3 1 032118 arXiv 1803 10019 Bibcode 2018PhRvE 97c2118M doi 10 1103 PhysRevE 97 032118 PMID 29776109 S2CID 4955393 Rostamizadeh Afshin Talwalkar Ameet 2012 Foundations of Machine Learning angl USA Massachusetts MIT Press ISBN 9780262018258 Alpaydin Ethem 2010 Introduction to Machine Learning angl London The MIT Press ISBN 978 0 262 01243 0 Procitovano 4 lyutogo 2017 Sinyeglazov Viktor Chumachenko Olena 2022 Bidyuk P I Shugalej L P red Metodi ta tehnologiyi napivkerovanogo navchannya Kurs lekcij PDF ukr Kiyiv NTUU KPI im Igorya Sikorskogo Duda O M Kunanec N E Macyuk O V Pasichnik V V 21 27 travnya 2018 Metodi analitichnogo opracyuvannya big data PDF Intelektualni sistemi prijnyattya rishen ta problemi obchislyuvalnogo intelektu ukr Zaliznij Port s 159 ISBN 978 617 7573 17 2 Kropivnicka V B Magas D M 30 kvitnya 2023 Napivkerovane mashinne navchannya dlya viyavlennya nespravnostej naftogazoprovodiv Modern engineering and innovative technologies ukr 1 18 33 36 doi 10 30890 2567 5273 2023 26 01 010 V yunenko O B Viganyajlo S M 12 travnya 2021 Sokurenko V V Shvec D V Mogilevskij L V Shulga V P Yakovlyev R P Shmelov Yu M red Innovaciyi ta zagalni problemi pidvishennya rivnya kiberbezpeki PDF II Mizhnarodna naukovo praktichna konferenciya Aviaciya promislovist suspilstvo ukr T 1 MVS Ukrayini Harkivskij nacionalnij universitet vnutrishnih sprav Kremenchuckij lotnij koledzh s 169 ISBN 978 966 610 243 3 Horoshilov S V Redka M O 2019 Intelektualne keruvannya oriyentaciyeyu kosmichnih aparativ iz vikoristannyam navchannya z pidkriplennyam PDF Tehnichna mehanika ukr Dnipro Institut tehnichnoyi mehaniki Nacionalnoyi akademiyi nauk Ukrayini ta Derzhavnogo kosmichnogo agentstva Ukrayini 4 doi 10 15407 itm2019 04 029 a href wiki D0 A8 D0 B0 D0 B1 D0 BB D0 BE D0 BD Cite journal title Shablon Cite journal cite journal a Obslugovuvannya CS1 Storinki z parametrom url status ale bez parametra archive url posilannya Jordan M I Mitchell T M 17 lipnya 2015 Machine learning Trends perspectives and prospects Science angl 349 6245 255 260 Bibcode 2015Sci 349 255J doi 10 1126 science aaa8415 PMID 26185243 S2CID 677218 El Naqa Issam Murphy Martin J 2015 What is Machine Learning Machine Learning in Radiation Oncology angl s 3 11 doi 10 1007 978 3 319 18305 3 1 ISBN 978 3 319 18304 6 S2CID 178586107 Okolie Jude A Savage Shauna Ogbaga Chukwuma C Gunes Burcu June 2022 Assessing the potential of machine learning methods to study the removal of pharmaceuticals from wastewater using biochar or activated carbon Total Environment Research Themes angl 1 2 100001 doi 10 1016 j totert 2022 100001 S2CID 249022386 Russell Stuart J Norvig Peter 2010 Artificial Intelligence A Modern Approach angl vid Third Prentice Hall ISBN 9780136042594 Mohri Mehryar Rostamizadeh Afshin Talwalkar Ameet 2012 Foundations of Machine Learning angl The MIT Press ISBN 9780262018258 Alpaydin Ethem 2010 Introduction to Machine Learning angl MIT Press s 9 ISBN 978 0 262 01243 0 Arhiv originalu za 17 sichnya 2023 Procitovano 25 listopada 2018 Jordan Michael I Bishop Christopher M 2004 Neural Networks U Allen B Tucker red Computer Science Handbook Second Edition Section VII Intelligent Systems angl Boca Raton Florida Chapman amp Hall CRC Press LLC ISBN 978 1 58488 360 9 Zhang Bosen Huang Haiyan Tibbs Cortes Laura E Vanous Adam Zhang Zhiwu Sanguinet Karen Garland Campbell Kimberly A Yu Jianming Li Xianran 2023 Streamline unsupervised machine learning to survey and graph indel based haplotypes from pan genomes Molecular Plant angl 16 6 975 978 doi 10 1016 j molp 2023 05 005 PMID 37202927 Klejn O M 2023 Metod ta zasobi viyavlennya anomalij v kiberfizichnih sistemah komp yuternogo zoru kvalifikacijna robota magistra ukr Hmelnickij Hmelnickij nacionalnij universitet Alex Ratner Stephen Bach Paroma Varma Chris Weak Supervision The New Programming Paradigm for Machine Learning hazyresearch github io angl referencing work by many other members of Hazy Research Arhiv originalu za 6 chervnya 2019 Procitovano 6 chervnya 2019 van Otterlo M Wiering M 2012 Reinforcement Learning and Markov Decision Processes Reinforcement Learning Adaptation Learning and Optimization angl T 12 s 3 42 doi 10 1007 978 3 642 27645 3 1 ISBN 978 3 642 27644 6 Roweis Sam T Saul Lawrence K 22 grudnya 2000 Nonlinear Dimensionality Reduction by Locally Linear Embedding Science angl 290 5500 2323 2326 Bibcode 2000Sci 290 2323R doi 10 1126 science 290 5500 2323 PMID 11125150 S2CID 5987139 Shin Terence 5 sichnya 2020 All Machine Learning Models Explained in 6 Minutes Intuitive explanations of the most popular machine learning models Towards Data Science angl Arhiv originalu za 15 lipnya 2023 Procitovano 30 lipnya 2023 Pavel Brazdil Christophe Giraud Carrier Carlos Soares Ricardo Vilalta 2009 Metalearning Applications to Data Mining angl vid Fourth Springer Science Business Media s 10 14 passim ISBN 978 3540732624 Bozinovski S 1982 A self learning system using secondary reinforcement In Trappl Robert ed Cybernetics and Systems Research Proceedings of the Sixth European Meeting on Cybernetics and Systems Research North Holland pp 397 402 ISBN 978 0 444 86488 8 angl Bozinovski Stevo 2014 Modeling mechanisms of cognition emotion interaction in artificial neural networks since 1981 Procedia Computer Science p 255 263 angl Bozinovski S 2001 Self learning agents A connectionist theory of emotion based on crossbar value judgment Cybernetics and Systems 32 6 637 667 angl Y Bengio A Courville P Vincent 2013 Representation Learning A Review and New Perspectives IEEE Transactions on Pattern Analysis and Machine Intelligence angl 35 8 1798 1828 arXiv 1206 5538 doi 10 1109 tpami 2013 50 PMID 23787338 S2CID 393948 Nathan Srebro Jason D M Rennie Tommi S Jaakkola 2004 Maximum Margin Matrix Factorization en angl Coates Adam Lee Honglak Ng Andrew Y 2011 An analysis of single layer networks in unsupervised feature learning PDF Int l Conf on AI and Statistics AISTATS angl Arhiv originalu PDF za 13 serpnya 2017 Procitovano 25 listopada 2018 Csurka Gabriella Dance Christopher C Fan Lixin Willamowski Jutta Bray Cedric 2004 Visual categorization with bags of keypoints PDF ECCV Workshop on Statistical Learning in Computer Vision angl Arhiv PDF originalu za 13 lipnya 2019 Procitovano 29 serpnya 2019 Daniel Jurafsky James H Martin 2009 Speech and Language Processing angl Pearson Education International s 145 146 Lu Haiping Plataniotis K N Venetsanopoulos A N 2011 A Survey of Multilinear Subspace Learning for Tensor Data PDF Pattern Recognition angl 44 7 1540 1551 Bibcode 2011PatRe 44 1540L doi 10 1016 j patcog 2011 01 004 Arhiv PDF originalu za 10 lipnya 2019 Procitovano 4 veresnya 2015 2009 Learning Deep Architectures for AI angl Now Publishers Inc s 1 3 ISBN 978 1 60198 294 0 Arhiv originalu za 17 sichnya 2023 Procitovano 15 lyutogo 2016 Tillmann A M 2015 On the Computational Intractability of Exact and Approximate Dictionary Learning IEEE Signal Processing Letters angl 22 1 45 49 arXiv 1405 6664 Bibcode 2015ISPL 22 45T doi 10 1109 LSP 2014 2345761 S2CID 13342762 en M Elad and A Bruckstein 2006 K SVD An Algorithm for Designing Overcomplete Dictionaries for Sparse Representation Arhivovano 2018 11 23 u Wayback Machine Signal Processing IEEE Transactions on 54 11 4311 4322 angl Zimek Arthur Schubert Erich 2017 Outlier Detection Encyclopedia of Database Systems angl Springer New York s 1 5 doi 10 1007 978 1 4899 7993 3 80719 1 ISBN 9781489979933 Hodge V J Austin J 2004 A Survey of Outlier Detection Methodologies PDF Artificial Intelligence Review angl 22 2 85 126 CiteSeerX 10 1 1 318 4023 doi 10 1007 s10462 004 4304 y S2CID 59941878 Arhiv PDF originalu za 22 chervnya 2015 Procitovano 25 listopada 2018 Dokas Paul Ertoz Levent Kumar Vipin Lazarevic Aleksandar Srivastava Jaideep Tan Pang Ning 2002 Data mining for network intrusion detection PDF Proceedings NSF Workshop on Next Generation Data Mining angl Arhiv PDF originalu za 23 veresnya 2015 Procitovano 26 bereznya 2023 Chandola V Banerjee A Kumar V 2009 Anomaly detection A survey en angl 41 3 1 58 doi 10 1145 1541880 1541882 S2CID 207172599 Fleer S Moringen A Klatzky R L Ritter H 2020 Learning efficient haptic shape exploration with a rigid tactile sensor array S Fleer A Moringen R Klatzky H Ritter PLOS ONE angl 15 1 e0226880 arXiv 1902 07501 doi 10 1371 journal pone 0226880 PMC 6940144 PMID 31896135 Moringen Alexandra Fleer Sascha Walck Guillaume Ritter Helge 2020 Nisky Ilana Hartcher O Brien Jess Wiertlewski Michael Smeets Jeroen red Attention Based Robot Learning of Haptic Interaction Haptics Science Technology Applications Lecture Notes in Computer Science angl Cham Springer International Publishing t 12272 s 462 470 doi 10 1007 978 3 030 58147 3 51 ISBN 978 3 030 58146 6 S2CID 220069113 Piatetsky Shapiro Gregory 1991 Discovery analysis and presentation of strong rules in Piatetsky Shapiro Gregory and Frawley William J eds Knowledge Discovery in Databases AAAI MIT Press Cambridge MA angl Bassel George W Glaab Enrico Marquez Julietta Holdsworth Michael J Bacardit Jaume 1 veresnya 2011 Functional Network Construction in Arabidopsis Using Rule Based Machine Learning on Large Scale Data Sets The Plant Cell angl 23 9 3101 3116 doi 10 1105 tpc 111 088153 ISSN 1532 298X PMC 3203449 PMID 21896882 Agrawal R Imielinski T Swami A 1993 Mining association rules between sets of items in large databases Proceedings of the 1993 ACM SIGMOD international conference on Management of data SIGMOD 93 angl s 207 CiteSeerX 10 1 1 40 6984 doi 10 1145 170035 170072 ISBN 978 0897915922 S2CID 490415 Urbanowicz Ryan J Moore Jason H 22 veresnya 2009 Learning Classifier Systems A Complete Introduction Review and Roadmap Journal of Artificial Evolution and Applications angl 2009 1 25 doi 10 1155 2009 736398 ISSN 1687 6229 Plotkin G D Automatic Methods of Inductive Inference Arhivovano 2017 12 22 u Wayback Machine PhD thesis University of Edinburgh 1970 angl Shapiro Ehud Y Inductive inference of theories from facts Arhivovano 2021 08 21 u Wayback Machine Research Report 192 Yale University Department of Computer Science 1981 Reprinted in J L Lassez G Plotkin Eds Computational Logic The MIT Press Cambridge MA 1991 pp 199 254 angl Shapiro Ehud Y 1983 Algorithmic program debugging Cambridge Mass MIT Press ISBN 0 262 19218 7 angl Shapiro Ehud Y The model inference system Proceedings of the 7th international joint conference on Artificial intelligence Volume 2 Morgan Kaufmann Publishers Inc 1981 angl Honglak Lee Roger Grosse Rajesh Ranganath Andrew Y Ng Convolutional Deep Belief Networks for Scalable Unsupervised Learning of Hierarchical Representations Arhivovano 2017 10 18 u Wayback Machine Proceedings of the 26th Annual International Conference on Machine Learning 2009 angl Cortes Corinna Vapnik Vladimir N 1995 Support vector networks Machine Learning angl 20 3 273 297 doi 10 1007 BF00994018 Stevenson Christopher Tutorial Polynomial Regression in Excel facultystaff richmond edu angl Arhiv originalu za 2 chervnya 2013 Procitovano 22 sichnya 2017 Dokumentaciya scikit learn takozh mistit podibni prikladi Arhivovano 2022 11 02 u Wayback Machine angl Goldberg David E Holland John H 1988 Genetic algorithms and machine learning PDF Machine Learning angl 3 2 95 99 doi 10 1007 bf00113892 S2CID 35506513 Arhiv PDF originalu za 16 travnya 2011 Procitovano 3 veresnya 2019 Michie D Spiegelhalter D J Taylor C C 1994 Machine Learning Neural and Statistical Classification Ellis Horwood Series in Artificial Intelligence angl Bibcode 1994mlns book M Zhang Jun Zhan Zhi hui Lin Ying Chen Ni Gong Yue jiao Zhong Jing hui Chung Henry S H Li Yun Shi Yu hui 2011 Evolutionary Computation Meets Machine Learning A Survey Computational Intelligence Magazine angl 6 4 68 75 doi 10 1109 mci 2011 942584 S2CID 6760276 Federated Learning Collaborative Machine Learning without Centralized Training Data Google AI Blog angl 6 kvitnya 2017 Arhiv originalu za 7 chervnya 2019 Procitovano 8 chervnya 2019 Mashinne navchannya vklyucheno do programi CFA obgovorennya zgori donizu div Kathleen DeRose and Christophe Le Lanno 2020 Machine Learning Arhivovano 2020 01 13 u Wayback Machine angl Ivanenko Mikhail Smolik Waldemar T Wanta Damian Midura Mateusz Wroblewski Przemyslaw Hou Xiaohan Yan Xiaoheng 2023 Image Reconstruction Using Supervised Learning in Wearable Electrical Impedance Tomography of the Thorax Sensors angl 23 18 7774 Bibcode 2023Senso 23 7774I doi 10 3390 s23187774 PMC 10538128 PMID 37765831 BelKor Home Page research att com angl The Netflix Tech Blog Netflix Recommendations Beyond the 5 stars Part 1 angl 6 kvitnya 2012 Arhiv originalu za 31 travnya 2016 Procitovano 8 serpnya 2015 Scott Patterson 13 lipnya 2010 Letting the Machines Decide angl The Wall Street Journal Arhiv originalu za 24 chervnya 2018 Procitovano 24 chervnya 2018 Vinod Khosla 10 sichnya 2012 Do We Need Doctors or Algorithms angl Tech Crunch Arhiv originalu za 18 chervnya 2018 Procitovano 20 zhovtnya 2016 When A Machine Learning Algorithm Studied Fine Art Paintings It Saw Things Art Historians Had Never Noticed Arhivovano 2016 06 04 u Wayback Machine The Physics at ArXiv blog angl Vincent James 10 kvitnya 2019 The first AI generated textbook shows what robot writers are actually good at The Verge angl Arhiv originalu za 5 travnya 2019 Procitovano 5 travnya 2019 Vaishya Raju Javaid Mohd Khan Ibrahim Haleem Haleem Abid 1 lipnya 2020 Artificial Intelligence AI applications for COVID 19 pandemic Diabetes amp Metabolic Syndrome Clinical Research amp Reviews angl 14 4 337 339 doi 10 1016 j dsx 2020 04 012 PMC 7195043 PMID 32305024 Rezapouraghdam Hamed Akhshik Arash Ramkissoon Haywantee 10 bereznya 2021 Application of machine learning to predict visitors green behavior in marine protected areas evidence from Cyprus Journal of Sustainable Tourism angl 31 11 2479 2505 doi 10 1080 09669582 2021 1887878 hdl 10037 24073 Dey Somdip Singh Amit Kumar Wang Xiaohang McDonald Maier Klaus 15 chervnya 2020 User Interaction Aware Reinforcement Learning for Power and Thermal Efficiency of CPU GPU Mobile MPSoCs 2020 Design Automation amp Test in Europe Conference amp Exhibition DATE PDF angl s 1728 1733 doi 10 23919 DATE48585 2020 9116294 ISBN 978 3 9819263 4 7 S2CID 219858480 Arhiv originalu za 13 grudnya 2021 Procitovano 20 sichnya 2022 Quested Tony Smartphones get smarter with Essex innovation Business Weekly angl Arhiv originalu za 24 chervnya 2021 Procitovano 17 chervnya 2021 Williams Rhiannon 21 lipnya 2020 Future smartphones will prolong their own battery life by monitoring owners behaviour en angl Arhiv originalu za 24 chervnya 2021 Procitovano 17 chervnya 2021 Rasekhschaffe Keywan Christian Jones Robert C 1 lipnya 2019 Machine Learning for Stock Selection Financial Analysts Journal angl 75 3 70 88 doi 10 1080 0015198X 2019 1596678 ISSN 0015 198X S2CID 108312507 Why Machine Learning Models Often Fail to Learn QuickTake Q amp A Bloomberg com angl 10 listopada 2016 Arhiv originalu za 20 bereznya 2017 Procitovano 10 kvitnya 2017