Главная

Статьи

У чому різниця між штучним інтелектом, машинним навчанням і глибоким навчанням? | NVIDIA

  1. У чому різниця між штучним інтелектом, машинним навчанням і глибоким навчанням? У чому різниця між...
  2. Штучний інтелект - людський інтелект, демонстрований машинами
  3. Машинне навчання - шлях до штучного інтелекту
  4. Глибоке навчання - техніка виконання машинного навчання
  5. Завдяки глибокому навчання у ІІ є світле майбутнє
  6. У чому різниця між штучним інтелектом, машинним навчанням і глибоким навчанням?
  7. Від застою до розквіту
  8. Штучний інтелект - людський інтелект, демонстрований машинами
  9. Машинне навчання - шлях до штучного інтелекту
  10. Глибоке навчання - техніка виконання машинного навчання
  11. Завдяки глибокому навчання у ІІ є світле майбутнє
  12. У чому різниця між штучним інтелектом, машинним навчанням і глибоким навчанням?
  13. Від застою до розквіту
  14. Штучний інтелект - людський інтелект, демонстрований машинами
  15. Машинне навчання - шлях до штучного інтелекту
  16. Глибоке навчання - техніка виконання машинного навчання
  17. Завдяки глибокому навчання у ІІ є світле майбутнє
  18. У чому різниця між штучним інтелектом, машинним навчанням і глибоким навчанням?
  19. Від застою до розквіту
  20. Штучний інтелект - людський інтелект, демонстрований машинами
  21. Машинне навчання - шлях до штучного інтелекту
  22. Глибоке навчання - техніка виконання машинного навчання
  23. Завдяки глибокому навчання у ІІ є світле майбутнє

У чому різниця між штучним інтелектом, машинним навчанням і глибоким навчанням?

У чому різниця між штучним інтелектом, машинним навчанням і глибоким навчанням?

NVIDIA Blog   https://blogs NVIDIA Blog
https://blogs.nvidia.com/blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai

Штучний інтелект (ШІ) - це майбутнє. Штучний інтелект - це наукова фантастика. Штучний інтелект - вже частина нашого життя. Всі ці твердження вірні, все залежить від того, що ви маєте на увазі під штучним інтелектом.

Коли програма Google DeepMind AlphaGo побила професійного гравця в го Лі Се-долу з Південної Кореї, журналісти намагалися пояснити цю перемогу за допомогою термінів «штучний інтелект», «машинне навчання» і «глибоке навчання». Всі три є причиною беззастережної перемоги AlphaGo над Лі. Але все-таки це різні речі. Давайте розберемося.

Найпростіше пояснити їх зв'язок за допомогою такої схеми: ідея штучного інтелекту, яка з'явилася першою - найбільша область на схемі нижче, потім машинне навчання - яке з'явилося пізніше, і, нарешті, глибоке навчання, яке викликало сьогоднішнє стрімкий розвиток ІІ - знаходиться підобластю штучного інтелекту і машинного навчання.

Найпростіше пояснити їх зв'язок за допомогою такої схеми: ідея штучного інтелекту, яка з'явилася першою - найбільша область на схемі нижче, потім машинне навчання - яке з'явилося пізніше, і, нарешті, глибоке навчання, яке викликало сьогоднішнє стрімкий розвиток ІІ - знаходиться підобластю штучного інтелекту і машинного навчання

З моменту першої хвилі в 1950-их роках складові штучного інтелекту - спочатку машинне навчання, потім глибоке навчання, яке, в свою чергу, є складовою машинного навчання, - викликали ще більші потрясіння на ринку.

Від застою до розквіту

Штучний інтелект став частиною наших мрій і прагнень з тих пір, як вчені вперше вимовили цей термін на Дартмутського конференціях в 1956 році і поклали початок розвитку галузі ІІ. Надалі ІІ сприймався то як заставу яскравого майбутнього нашої цивілізації, то як дивне винахід комп'ютерних геніїв. Так це і було до 2012 року.

За останні два роки стався сильний стрибок у розвитку ІІ, особливо після 2015 року. І основна причина полягає в широкому поширенні графічних процесорів, які прискорюють і здешевлюють паралельні обчислення. Також цьому посприяло появі практично необмежених можливостей зберігання даних і лавиноподібне зростання цих самих різних типів (те, що називається «великими даними») - зображень, тексту, картографічних даних і так далі.

Давайте подивимося, як вчені перейшли від застою - до 2012 року - до буму, в результаті якого народилися сотні додатків, що використовуються сьогодні мільйонами людей по всьому світу.

Штучний інтелект - людський інтелект, демонстрований машинами

З пішаків в дамки: комп'ютерні програми для гри в шашки були одними з перших прикладів штучного інтелекту, викликавши першу хвилю захоплення в 1950-их роках.

На літній конференції 1956 року мрією перших першопрохідців в області ІІ стало створення комплексних машин - на базі щойно з'явилися комп'ютерів - з тими ж характеристиками, що і людський розум. Цю концепцію ми називаємо «загальний ІІ», і її втіленням є машини, які мають усі наведені нашими почуттями (може навіть і більше) і нашим розумом. Ви бачили безліч таких машин в фільмах - і як друзів (С-3PO), і як ворогів (Термінатор). Але машини з загальним ІІ залишилися в фільмах і науково-фантастичних творах з однієї простої причини: ми не можемо їх зробити, принаймні, поки що.

Однак нам під силу так званий «обмежений ІІ», тобто технології, які здатні виконувати певні завдання так само добре, як люди, або навіть краще. Це, наприклад, класифікація зображень в таких сервісах, як Pinterest, або розпізнавання осіб в Facebook.

Це приклади вже застосовуються на практиці. Технології відображають деякі аспекти людського розуму. Але як? І чому? Тут ми підходимо до наступного кола - машинного навчання.

Машинне навчання - шлях до штучного інтелекту

Дієта без спаму: машинне навчання допомагає запобігати попаданню спаму в пошту

Машинне навчання - це використання алгоритмів аналізу даних, отримання висновків і виносу рішення або передбачення щодо чого-небудь. Тобто замість створення програм вручну за допомогою спеціального набору команд для виконання певного завдання машину навчають за допомогою великої кількості даних і алгоритмів, які дають їй можливість навчитися виконувати це завдання.

Машинне навчання придумали ті ж творці штучного інтелекту, і зараз алгоритмічні підходи включають навчання дереву прийняття рішень, індуктивне логічне програмування, кластеризації, навчання з підкріпленням, Байесови мережі і так далі. Як ми знаємо, жоден з них не допоміг досягти загального ІІ, і навіть обмежений ІІ в основному був поза досяжністю ранніх алгоритмів машинного навчання.

Найбільш широко машинне навчання застосовувалося в області комп'ютерного зору, хоча і зараз тут все ще потрібно багато ручного кодування. Наприклад, доводиться писати такі класифікатори, як фільтри детекції градієнтів, щоб програма могла визначити, де об'єкт почався і де закінчився; фільтри визначення форми, щоб, скажімо, визначити, чи має об'єкт вісім сторін; класифікатор для розпізнавання букв "STOP." З усіх цих вручну створених класифікаторів створювалися алгоритми, які допомагали розібратися в зображенні і зрозуміти, що це знак СТОП ( «Рух без зупинки заборонено»).

Це вже дає кращі результати. Однак в туманний день, коли знак погано видно, або коли його частково загороджує дерево, ймовірність помилки висока. Тому до недавнього часу комп'ютерний зір і розпізнавання зображень все ще не могли змагатися з людиною.

Час і правильні алгоритми навчання змінили розклад.

Глибоке навчання - техніка виконання машинного навчання

Ще одним алгоритмическим підходом на ранньому етапі розвитку машинного навчання стали штучні нейронні мережі. Нейронні мережі грунтуються на наших знаннях біології мозку, а саме на зв'язках між нейронами. Але на відміну від біологічного мозку, де один нейрон може зв'язуватися з будь-яким іншим в межах певної відстані, штучні нейронні мережі мають дискретні рівні, зв'язку та напрямки поширення даних.

Ви можете, скажімо, взяти зображення, порізати його на шматочки і відправити їх на перший рівень нейронної мережі. Там вони обробили окремими нейронами і відправляться на другий рівень мережі, і так далі, до фінального рівня, поки не буде отримано результат.

«Тренуйтеся на кішках»: Відбір зображень з котами з відеороликів YouTube став одним з перших проривів в глибокому навчанні.

Кожен нейрон призначає ваговий коефіцієнт вхідних даних - наскільки вони правильні по відношенню до виконуваного завдання. Фінальний результат визначається сумою цих вагових коефіцієнтів. Згадайте приклад зі знаком СТОП. Ознаки зображення цього знака вивчаються нейронами - його октогональную форма, червоний колір, його чіткі літери, розмір, як у дорожнього знака, наявність або відсутність руху. Завдання нейронної мережі - визначити, є це знаком СТОП чи ні. Тут використовується вектор ймовірності, наукова гіпотеза, заснована на вагових коефіцієнтах. У нашому прикладі система може бути впевнена на 86%, що це знак СТОП, на 7%, що це знак обмеження швидкості, і на 5%, що це літаючий змій, що застряг в деревах, і так далі - і нейронна архітектура потім повідомляє нейронної мережі, правильно це чи ні.

Але до недавнього часу вчені в галузі ШІ швидше уникали нейронних мереж. Вони з'явилися ще на зорі ІІ, але з точки зору розуму вони не давали майже нічого. Проблема в тому, що навіть самі базові нейронні мережі вимагали дуже потужних обчислень, і це було непрактично. Однак все ж невелика група дослідників на чолі з Джеффрі Хінтон з Університету Торонто займалася нейронними мережами і в підсумку распараллеліть алгоритми для суперкомп'ютерів, довівши правильність ідеї, але це сталося вже після установки графічних процесорів.

Повернемося до нашого знаку СТОП: великі шанси, що система буде видавати безліч неправильних відповідей в процесі навчання. Її потрібно навчати. Їй потрібно згодовувати сотні тисяч, мільйони зображень, поки вагові коефіцієнти вхідних даних не будуть налаштовані так точно, що правильну відповідь буде видаватися практично кожен раз - туман чи ні туману, сонце чи дощ. Ось на цьому етапі мережу і навчитися розпізнавати знак СТОП; або особа вашої мами в разі Facebook; або кота - що і зробив Ендрю Енджі в 2012 році в Google.

Прорив ЕнДжі полягав в тому, що він взяв ці нейронні мережі і зробив їх величезними, збільшивши кількість шарів і нейронів, і потім пропустив через них величезна кількість даних для навчання системи. В його випадку це були зображення з 10 мільйонів відеороликів з YouTube. ЕнДжі додав тієї самої глибини в навчання.

Сьогодні машини, що пройшли глибоке навчання, в деяких випадках видають результати краще, ніж люди: від розпізнавання котів і до ознак раку в крові і пухлин на знімках МРТ.

Програма Google AlphaGo вивчила урок і навчилася грати в го, граючи сама з собою знову і знову.

Завдяки глибокому навчання у ІІ є світле майбутнє

Глибоке навчання, фактично, широко запровадив машинне навчання в практику. Воно розбиває завдання так, що всі види машинного сприяння здаються можливими. Автомобілі без водіїв, краще превентивне охорону здоров'я, рекомендації фільмів - все це вже є або майже є сьогодні. За допомогою глибокого навчання ІІ може навіть дійти до стадії наукової фантастики, про яку ми так довго мріяли. Дайте мені C-3PO, будь ласка, а Термінатора залиште собі.

У чому різниця між штучним інтелектом, машинним навчанням і глибоким навчанням?

У чому різниця між штучним інтелектом, машинним навчанням і глибоким навчанням?

NVIDIA Blog   https://blogs NVIDIA Blog
https://blogs.nvidia.com/blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai

Штучний інтелект (ШІ) - це майбутнє. Штучний інтелект - це наукова фантастика. Штучний інтелект - вже частина нашого життя. Всі ці твердження вірні, все залежить від того, що ви маєте на увазі під штучним інтелектом.

Коли програма Google DeepMind AlphaGo побила професійного гравця в го Лі Се-долу з Південної Кореї, журналісти намагалися пояснити цю перемогу за допомогою термінів «штучний інтелект», «машинне навчання» і «глибоке навчання». Всі три є причиною беззастережної перемоги AlphaGo над Лі. Але все-таки це різні речі. Давайте розберемося.

Найпростіше пояснити їх зв'язок за допомогою такої схеми: ідея штучного інтелекту, яка з'явилася першою - найбільша область на схемі нижче, потім машинне навчання - яке з'явилося пізніше, і, нарешті, глибоке навчання, яке викликало сьогоднішнє стрімкий розвиток ІІ - знаходиться підобластю штучного інтелекту і машинного навчання.

Найпростіше пояснити їх зв'язок за допомогою такої схеми: ідея штучного інтелекту, яка з'явилася першою - найбільша область на схемі нижче, потім машинне навчання - яке з'явилося пізніше, і, нарешті, глибоке навчання, яке викликало сьогоднішнє стрімкий розвиток ІІ - знаходиться підобластю штучного інтелекту і машинного навчання

З моменту першої хвилі в 1950-их роках складові штучного інтелекту - спочатку машинне навчання, потім глибоке навчання, яке, в свою чергу, є складовою машинного навчання, - викликали ще більші потрясіння на ринку.

Від застою до розквіту

Штучний інтелект став частиною наших мрій і прагнень з тих пір, як вчені вперше вимовили цей термін на Дартмутського конференціях в 1956 році і поклали початок розвитку галузі ІІ. Надалі ІІ сприймався то як заставу яскравого майбутнього нашої цивілізації, то як дивне винахід комп'ютерних геніїв. Так це і було до 2012 року.

За останні два роки стався сильний стрибок у розвитку ІІ, особливо після 2015 року. І основна причина полягає в широкому поширенні графічних процесорів, які прискорюють і здешевлюють паралельні обчислення. Також цьому посприяло появі практично необмежених можливостей зберігання даних і лавиноподібне зростання цих самих різних типів (те, що називається «великими даними») - зображень, тексту, картографічних даних і так далі.

Давайте подивимося, як вчені перейшли від застою - до 2012 року - до буму, в результаті якого народилися сотні додатків, що використовуються сьогодні мільйонами людей по всьому світу.

Штучний інтелект - людський інтелект, демонстрований машинами

З пішаків в дамки: комп'ютерні програми для гри в шашки були одними з перших прикладів штучного інтелекту, викликавши першу хвилю захоплення в 1950-их роках.

На літній конференції 1956 року мрією перших першопрохідців в області ІІ стало створення комплексних машин - на базі щойно з'явилися комп'ютерів - з тими ж характеристиками, що і людський розум. Цю концепцію ми називаємо «загальний ІІ», і її втіленням є машини, які мають усі наведені нашими почуттями (може навіть і більше) і нашим розумом. Ви бачили безліч таких машин в фільмах - і як друзів (С-3PO), і як ворогів (Термінатор). Але машини з загальним ІІ залишилися в фільмах і науково-фантастичних творах з однієї простої причини: ми не можемо їх зробити, принаймні, поки що.

Однак нам під силу так званий «обмежений ІІ», тобто технології, які здатні виконувати певні завдання так само добре, як люди, або навіть краще. Це, наприклад, класифікація зображень в таких сервісах, як Pinterest, або розпізнавання осіб в Facebook.

Це приклади вже застосовуються на практиці. Технології відображають деякі аспекти людського розуму. Але як? І чому? Тут ми підходимо до наступного кола - машинного навчання.

Машинне навчання - шлях до штучного інтелекту

Дієта без спаму: машинне навчання допомагає запобігати попаданню спаму в пошту

Машинне навчання - це використання алгоритмів аналізу даних, отримання висновків і виносу рішення або передбачення щодо чого-небудь. Тобто замість створення програм вручну за допомогою спеціального набору команд для виконання певного завдання машину навчають за допомогою великої кількості даних і алгоритмів, які дають їй можливість навчитися виконувати це завдання.

Машинне навчання придумали ті ж творці штучного інтелекту, і зараз алгоритмічні підходи включають навчання дереву прийняття рішень, індуктивне логічне програмування, кластеризації, навчання з підкріпленням, Байесови мережі і так далі. Як ми знаємо, жоден з них не допоміг досягти загального ІІ, і навіть обмежений ІІ в основному був поза досяжністю ранніх алгоритмів машинного навчання.

Найбільш широко машинне навчання застосовувалося в області комп'ютерного зору, хоча і зараз тут все ще потрібно багато ручного кодування. Наприклад, доводиться писати такі класифікатори, як фільтри детекції градієнтів, щоб програма могла визначити, де об'єкт почався і де закінчився; фільтри визначення форми, щоб, скажімо, визначити, чи має об'єкт вісім сторін; класифікатор для розпізнавання букв "STOP." З усіх цих вручну створених класифікаторів створювалися алгоритми, які допомагали розібратися в зображенні і зрозуміти, що це знак СТОП ( «Рух без зупинки заборонено»).

Це вже дає кращі результати. Однак в туманний день, коли знак погано видно, або коли його частково загороджує дерево, ймовірність помилки висока. Тому до недавнього часу комп'ютерний зір і розпізнавання зображень все ще не могли змагатися з людиною.

Час і правильні алгоритми навчання змінили розклад.

Глибоке навчання - техніка виконання машинного навчання

Ще одним алгоритмическим підходом на ранньому етапі розвитку машинного навчання стали штучні нейронні мережі. Нейронні мережі грунтуються на наших знаннях біології мозку, а саме на зв'язках між нейронами. Але на відміну від біологічного мозку, де один нейрон може зв'язуватися з будь-яким іншим в межах певної відстані, штучні нейронні мережі мають дискретні рівні, зв'язку та напрямки поширення даних.

Ви можете, скажімо, взяти зображення, порізати його на шматочки і відправити їх на перший рівень нейронної мережі. Там вони обробили окремими нейронами і відправляться на другий рівень мережі, і так далі, до фінального рівня, поки не буде отримано результат.

«Тренуйтеся на кішках»: Відбір зображень з котами з відеороликів YouTube став одним з перших проривів в глибокому навчанні.

Кожен нейрон призначає ваговий коефіцієнт вхідних даних - наскільки вони правильні по відношенню до виконуваного завдання. Фінальний результат визначається сумою цих вагових коефіцієнтів. Згадайте приклад зі знаком СТОП. Ознаки зображення цього знака вивчаються нейронами - його октогональную форма, червоний колір, його чіткі літери, розмір, як у дорожнього знака, наявність або відсутність руху. Завдання нейронної мережі - визначити, є це знаком СТОП чи ні. Тут використовується вектор ймовірності, наукова гіпотеза, заснована на вагових коефіцієнтах. У нашому прикладі система може бути впевнена на 86%, що це знак СТОП, на 7%, що це знак обмеження швидкості, і на 5%, що це літаючий змій, що застряг в деревах, і так далі - і нейронна архітектура потім повідомляє нейронної мережі, правильно це чи ні.

Але до недавнього часу вчені в галузі ШІ швидше уникали нейронних мереж. Вони з'явилися ще на зорі ІІ, але з точки зору розуму вони не давали майже нічого. Проблема в тому, що навіть самі базові нейронні мережі вимагали дуже потужних обчислень, і це було непрактично. Однак все ж невелика група дослідників на чолі з Джеффрі Хінтон з Університету Торонто займалася нейронними мережами і в підсумку распараллеліть алгоритми для суперкомп'ютерів, довівши правильність ідеї, але це сталося вже після установки графічних процесорів.

Повернемося до нашого знаку СТОП: великі шанси, що система буде видавати безліч неправильних відповідей в процесі навчання. Її потрібно навчати. Їй потрібно згодовувати сотні тисяч, мільйони зображень, поки вагові коефіцієнти вхідних даних не будуть налаштовані так точно, що правильну відповідь буде видаватися практично кожен раз - туман чи ні туману, сонце чи дощ. Ось на цьому етапі мережу і навчитися розпізнавати знак СТОП; або особа вашої мами в разі Facebook; або кота - що і зробив Ендрю Енджі в 2012 році в Google.

Прорив ЕнДжі полягав в тому, що він взяв ці нейронні мережі і зробив їх величезними, збільшивши кількість шарів і нейронів, і потім пропустив через них величезна кількість даних для навчання системи. В його випадку це були зображення з 10 мільйонів відеороликів з YouTube. ЕнДжі додав тієї самої глибини в навчання.

Сьогодні машини, що пройшли глибоке навчання, в деяких випадках видають результати краще, ніж люди: від розпізнавання котів і до ознак раку в крові і пухлин на знімках МРТ.

Програма Google AlphaGo вивчила урок і навчилася грати в го, граючи сама з собою знову і знову.

Завдяки глибокому навчання у ІІ є світле майбутнє

Глибоке навчання, фактично, широко запровадив машинне навчання в практику. Воно розбиває завдання так, що всі види машинного сприяння здаються можливими. Автомобілі без водіїв, краще превентивне охорону здоров'я, рекомендації фільмів - все це вже є або майже є сьогодні. За допомогою глибокого навчання ІІ може навіть дійти до стадії наукової фантастики, про яку ми так довго мріяли. Дайте мені C-3PO, будь ласка, а Термінатора залиште собі.

У чому різниця між штучним інтелектом, машинним навчанням і глибоким навчанням?

У чому різниця між штучним інтелектом, машинним навчанням і глибоким навчанням?

NVIDIA Blog   https://blogs NVIDIA Blog
https://blogs.nvidia.com/blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai

Штучний інтелект (ШІ) - це майбутнє. Штучний інтелект - це наукова фантастика. Штучний інтелект - вже частина нашого життя. Всі ці твердження вірні, все залежить від того, що ви маєте на увазі під штучним інтелектом.

Коли програма Google DeepMind AlphaGo побила професійного гравця в го Лі Се-долу з Південної Кореї, журналісти намагалися пояснити цю перемогу за допомогою термінів «штучний інтелект», «машинне навчання» і «глибоке навчання». Всі три є причиною беззастережної перемоги AlphaGo над Лі. Але все-таки це різні речі. Давайте розберемося.

Найпростіше пояснити їх зв'язок за допомогою такої схеми: ідея штучного інтелекту, яка з'явилася першою - найбільша область на схемі нижче, потім машинне навчання - яке з'явилося пізніше, і, нарешті, глибоке навчання, яке викликало сьогоднішнє стрімкий розвиток ІІ - знаходиться підобластю штучного інтелекту і машинного навчання.

Найпростіше пояснити їх зв'язок за допомогою такої схеми: ідея штучного інтелекту, яка з'явилася першою - найбільша область на схемі нижче, потім машинне навчання - яке з'явилося пізніше, і, нарешті, глибоке навчання, яке викликало сьогоднішнє стрімкий розвиток ІІ - знаходиться підобластю штучного інтелекту і машинного навчання

З моменту першої хвилі в 1950-их роках складові штучного інтелекту - спочатку машинне навчання, потім глибоке навчання, яке, в свою чергу, є складовою машинного навчання, - викликали ще більші потрясіння на ринку.

Від застою до розквіту

Штучний інтелект став частиною наших мрій і прагнень з тих пір, як вчені вперше вимовили цей термін на Дартмутського конференціях в 1956 році і поклали початок розвитку галузі ІІ. Надалі ІІ сприймався то як заставу яскравого майбутнього нашої цивілізації, то як дивне винахід комп'ютерних геніїв. Так це і було до 2012 року.

За останні два роки стався сильний стрибок у розвитку ІІ, особливо після 2015 року. І основна причина полягає в широкому поширенні графічних процесорів, які прискорюють і здешевлюють паралельні обчислення. Також цьому посприяло появі практично необмежених можливостей зберігання даних і лавиноподібне зростання цих самих різних типів (те, що називається «великими даними») - зображень, тексту, картографічних даних і так далі.

Давайте подивимося, як вчені перейшли від застою - до 2012 року - до буму, в результаті якого народилися сотні додатків, що використовуються сьогодні мільйонами людей по всьому світу.

Штучний інтелект - людський інтелект, демонстрований машинами

З пішаків в дамки: комп'ютерні програми для гри в шашки були одними з перших прикладів штучного інтелекту, викликавши першу хвилю захоплення в 1950-их роках.

На літній конференції 1956 року мрією перших першопрохідців в області ІІ стало створення комплексних машин - на базі щойно з'явилися комп'ютерів - з тими ж характеристиками, що і людський розум. Цю концепцію ми називаємо «загальний ІІ», і її втіленням є машини, які мають усі наведені нашими почуттями (може навіть і більше) і нашим розумом. Ви бачили безліч таких машин в фільмах - і як друзів (С-3PO), і як ворогів (Термінатор). Але машини з загальним ІІ залишилися в фільмах і науково-фантастичних творах з однієї простої причини: ми не можемо їх зробити, принаймні, поки що.

Однак нам під силу так званий «обмежений ІІ», тобто технології, які здатні виконувати певні завдання так само добре, як люди, або навіть краще. Це, наприклад, класифікація зображень в таких сервісах, як Pinterest, або розпізнавання осіб в Facebook.

Це приклади вже застосовуються на практиці. Технології відображають деякі аспекти людського розуму. Але як? І чому? Тут ми підходимо до наступного кола - машинного навчання.

Машинне навчання - шлях до штучного інтелекту

Дієта без спаму: машинне навчання допомагає запобігати попаданню спаму в пошту

Машинне навчання - це використання алгоритмів аналізу даних, отримання висновків і виносу рішення або передбачення щодо чого-небудь. Тобто замість створення програм вручну за допомогою спеціального набору команд для виконання певного завдання машину навчають за допомогою великої кількості даних і алгоритмів, які дають їй можливість навчитися виконувати це завдання.

Машинне навчання придумали ті ж творці штучного інтелекту, і зараз алгоритмічні підходи включають навчання дереву прийняття рішень, індуктивне логічне програмування, кластеризації, навчання з підкріпленням, Байесови мережі і так далі. Як ми знаємо, жоден з них не допоміг досягти загального ІІ, і навіть обмежений ІІ в основному був поза досяжністю ранніх алгоритмів машинного навчання.

Найбільш широко машинне навчання застосовувалося в області комп'ютерного зору, хоча і зараз тут все ще потрібно багато ручного кодування. Наприклад, доводиться писати такі класифікатори, як фільтри детекції градієнтів, щоб програма могла визначити, де об'єкт почався і де закінчився; фільтри визначення форми, щоб, скажімо, визначити, чи має об'єкт вісім сторін; класифікатор для розпізнавання букв "STOP." З усіх цих вручну створених класифікаторів створювалися алгоритми, які допомагали розібратися в зображенні і зрозуміти, що це знак СТОП ( «Рух без зупинки заборонено»).

Це вже дає кращі результати. Однак в туманний день, коли знак погано видно, або коли його частково загороджує дерево, ймовірність помилки висока. Тому до недавнього часу комп'ютерний зір і розпізнавання зображень все ще не могли змагатися з людиною.

Час і правильні алгоритми навчання змінили розклад.

Глибоке навчання - техніка виконання машинного навчання

Ще одним алгоритмическим підходом на ранньому етапі розвитку машинного навчання стали штучні нейронні мережі. Нейронні мережі грунтуються на наших знаннях біології мозку, а саме на зв'язках між нейронами. Але на відміну від біологічного мозку, де один нейрон може зв'язуватися з будь-яким іншим в межах певної відстані, штучні нейронні мережі мають дискретні рівні, зв'язку та напрямки поширення даних.

Ви можете, скажімо, взяти зображення, порізати його на шматочки і відправити їх на перший рівень нейронної мережі. Там вони обробили окремими нейронами і відправляться на другий рівень мережі, і так далі, до фінального рівня, поки не буде отримано результат.

«Тренуйтеся на кішках»: Відбір зображень з котами з відеороликів YouTube став одним з перших проривів в глибокому навчанні.

Кожен нейрон призначає ваговий коефіцієнт вхідних даних - наскільки вони правильні по відношенню до виконуваного завдання. Фінальний результат визначається сумою цих вагових коефіцієнтів. Згадайте приклад зі знаком СТОП. Ознаки зображення цього знака вивчаються нейронами - його октогональную форма, червоний колір, його чіткі літери, розмір, як у дорожнього знака, наявність або відсутність руху. Завдання нейронної мережі - визначити, є це знаком СТОП чи ні. Тут використовується вектор ймовірності, наукова гіпотеза, заснована на вагових коефіцієнтах. У нашому прикладі система може бути впевнена на 86%, що це знак СТОП, на 7%, що це знак обмеження швидкості, і на 5%, що це літаючий змій, що застряг в деревах, і так далі - і нейронна архітектура потім повідомляє нейронної мережі, правильно це чи ні.

Але до недавнього часу вчені в галузі ШІ швидше уникали нейронних мереж. Вони з'явилися ще на зорі ІІ, але з точки зору розуму вони не давали майже нічого. Проблема в тому, що навіть самі базові нейронні мережі вимагали дуже потужних обчислень, і це було непрактично. Однак все ж невелика група дослідників на чолі з Джеффрі Хінтон з Університету Торонто займалася нейронними мережами і в підсумку распараллеліть алгоритми для суперкомп'ютерів, довівши правильність ідеї, але це сталося вже після установки графічних процесорів.

Повернемося до нашого знаку СТОП: великі шанси, що система буде видавати безліч неправильних відповідей в процесі навчання. Її потрібно навчати. Їй потрібно згодовувати сотні тисяч, мільйони зображень, поки вагові коефіцієнти вхідних даних не будуть налаштовані так точно, що правильну відповідь буде видаватися практично кожен раз - туман чи ні туману, сонце чи дощ. Ось на цьому етапі мережу і навчитися розпізнавати знак СТОП; або особа вашої мами в разі Facebook; або кота - що і зробив Ендрю Енджі в 2012 році в Google.

Прорив ЕнДжі полягав в тому, що він взяв ці нейронні мережі і зробив їх величезними, збільшивши кількість шарів і нейронів, і потім пропустив через них величезна кількість даних для навчання системи. В його випадку це були зображення з 10 мільйонів відеороликів з YouTube. ЕнДжі додав тієї самої глибини в навчання.

Сьогодні машини, що пройшли глибоке навчання, в деяких випадках видають результати краще, ніж люди: від розпізнавання котів і до ознак раку в крові і пухлин на знімках МРТ.

Програма Google AlphaGo вивчила урок і навчилася грати в го, граючи сама з собою знову і знову.

Завдяки глибокому навчання у ІІ є світле майбутнє

Глибоке навчання, фактично, широко запровадив машинне навчання в практику. Воно розбиває завдання так, що всі види машинного сприяння здаються можливими. Автомобілі без водіїв, краще превентивне охорону здоров'я, рекомендації фільмів - все це вже є або майже є сьогодні. За допомогою глибокого навчання ІІ може навіть дійти до стадії наукової фантастики, про яку ми так довго мріяли. Дайте мені C-3PO, будь ласка, а Термінатора залиште собі.

У чому різниця між штучним інтелектом, машинним навчанням і глибоким навчанням?

У чому різниця між штучним інтелектом, машинним навчанням і глибоким навчанням?

NVIDIA Blog   https://blogs NVIDIA Blog
https://blogs.nvidia.com/blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai

Штучний інтелект (ШІ) - це майбутнє. Штучний інтелект - це наукова фантастика. Штучний інтелект - вже частина нашого життя. Всі ці твердження вірні, все залежить від того, що ви маєте на увазі під штучним інтелектом.

Коли програма Google DeepMind AlphaGo побила професійного гравця в го Лі Се-долу з Південної Кореї, журналісти намагалися пояснити цю перемогу за допомогою термінів «штучний інтелект», «машинне навчання» і «глибоке навчання». Всі три є причиною беззастережної перемоги AlphaGo над Лі. Але все-таки це різні речі. Давайте розберемося.

Найпростіше пояснити їх зв'язок за допомогою такої схеми: ідея штучного інтелекту, яка з'явилася першою - найбільша область на схемі нижче, потім машинне навчання - яке з'явилося пізніше, і, нарешті, глибоке навчання, яке викликало сьогоднішнє стрімкий розвиток ІІ - знаходиться підобластю штучного інтелекту і машинного навчання.

Найпростіше пояснити їх зв'язок за допомогою такої схеми: ідея штучного інтелекту, яка з'явилася першою - найбільша область на схемі нижче, потім машинне навчання - яке з'явилося пізніше, і, нарешті, глибоке навчання, яке викликало сьогоднішнє стрімкий розвиток ІІ - знаходиться підобластю штучного інтелекту і машинного навчання

З моменту першої хвилі в 1950-их роках складові штучного інтелекту - спочатку машинне навчання, потім глибоке навчання, яке, в свою чергу, є складовою машинного навчання, - викликали ще більші потрясіння на ринку.

Від застою до розквіту

Штучний інтелект став частиною наших мрій і прагнень з тих пір, як вчені вперше вимовили цей термін на Дартмутського конференціях в 1956 році і поклали початок розвитку галузі ІІ. Надалі ІІ сприймався то як заставу яскравого майбутнього нашої цивілізації, то як дивне винахід комп'ютерних геніїв. Так це і було до 2012 року.

За останні два роки стався сильний стрибок у розвитку ІІ, особливо після 2015 року. І основна причина полягає в широкому поширенні графічних процесорів, які прискорюють і здешевлюють паралельні обчислення. Також цьому посприяло появі практично необмежених можливостей зберігання даних і лавиноподібне зростання цих самих різних типів (те, що називається «великими даними») - зображень, тексту, картографічних даних і так далі.

Давайте подивимося, як вчені перейшли від застою - до 2012 року - до буму, в результаті якого народилися сотні додатків, що використовуються сьогодні мільйонами людей по всьому світу.

Штучний інтелект - людський інтелект, демонстрований машинами

З пішаків в дамки: комп'ютерні програми для гри в шашки були одними з перших прикладів штучного інтелекту, викликавши першу хвилю захоплення в 1950-их роках.

На літній конференції 1956 року мрією перших першопрохідців в області ІІ стало створення комплексних машин - на базі щойно з'явилися комп'ютерів - з тими ж характеристиками, що і людський розум. Цю концепцію ми називаємо «загальний ІІ», і її втіленням є машини, які мають усі наведені нашими почуттями (може навіть і більше) і нашим розумом. Ви бачили безліч таких машин в фільмах - і як друзів (С-3PO), і як ворогів (Термінатор). Але машини з загальним ІІ залишилися в фільмах і науково-фантастичних творах з однієї простої причини: ми не можемо їх зробити, принаймні, поки що.

Однак нам під силу так званий «обмежений ІІ», тобто технології, які здатні виконувати певні завдання так само добре, як люди, або навіть краще. Це, наприклад, класифікація зображень в таких сервісах, як Pinterest, або розпізнавання осіб в Facebook.

Це приклади вже застосовуються на практиці. Технології відображають деякі аспекти людського розуму. Але як? І чому? Тут ми підходимо до наступного кола - машинного навчання.

Машинне навчання - шлях до штучного інтелекту

Дієта без спаму: машинне навчання допомагає запобігати попаданню спаму в пошту

Машинне навчання - це використання алгоритмів аналізу даних, отримання висновків і виносу рішення або передбачення щодо чого-небудь. Тобто замість створення програм вручну за допомогою спеціального набору команд для виконання певного завдання машину навчають за допомогою великої кількості даних і алгоритмів, які дають їй можливість навчитися виконувати це завдання.

Машинне навчання придумали ті ж творці штучного інтелекту, і зараз алгоритмічні підходи включають навчання дереву прийняття рішень, індуктивне логічне програмування, кластеризації, навчання з підкріпленням, Байесови мережі і так далі. Як ми знаємо, жоден з них не допоміг досягти загального ІІ, і навіть обмежений ІІ в основному був поза досяжністю ранніх алгоритмів машинного навчання.

Найбільш широко машинне навчання застосовувалося в області комп'ютерного зору, хоча і зараз тут все ще потрібно багато ручного кодування. Наприклад, доводиться писати такі класифікатори, як фільтри детекції градієнтів, щоб програма могла визначити, де об'єкт почався і де закінчився; фільтри визначення форми, щоб, скажімо, визначити, чи має об'єкт вісім сторін; класифікатор для розпізнавання букв "STOP." З усіх цих вручну створених класифікаторів створювалися алгоритми, які допомагали розібратися в зображенні і зрозуміти, що це знак СТОП ( «Рух без зупинки заборонено»).

Це вже дає кращі результати. Однак в туманний день, коли знак погано видно, або коли його частково загороджує дерево, ймовірність помилки висока. Тому до недавнього часу комп'ютерний зір і розпізнавання зображень все ще не могли змагатися з людиною.

Час і правильні алгоритми навчання змінили розклад.

Глибоке навчання - техніка виконання машинного навчання

Ще одним алгоритмическим підходом на ранньому етапі розвитку машинного навчання стали штучні нейронні мережі. Нейронні мережі грунтуються на наших знаннях біології мозку, а саме на зв'язках між нейронами. Але на відміну від біологічного мозку, де один нейрон може зв'язуватися з будь-яким іншим в межах певної відстані, штучні нейронні мережі мають дискретні рівні, зв'язку та напрямки поширення даних.

Ви можете, скажімо, взяти зображення, порізати його на шматочки і відправити їх на перший рівень нейронної мережі. Там вони обробили окремими нейронами і відправляться на другий рівень мережі, і так далі, до фінального рівня, поки не буде отримано результат.

«Тренуйтеся на кішках»: Відбір зображень з котами з відеороликів YouTube став одним з перших проривів в глибокому навчанні.

Кожен нейрон призначає ваговий коефіцієнт вхідних даних - наскільки вони правильні по відношенню до виконуваного завдання. Фінальний результат визначається сумою цих вагових коефіцієнтів. Згадайте приклад зі знаком СТОП. Ознаки зображення цього знака вивчаються нейронами - його октогональную форма, червоний колір, його чіткі літери, розмір, як у дорожнього знака, наявність або відсутність руху. Завдання нейронної мережі - визначити, є це знаком СТОП чи ні. Тут використовується вектор ймовірності, наукова гіпотеза, заснована на вагових коефіцієнтах. У нашому прикладі система може бути впевнена на 86%, що це знак СТОП, на 7%, що це знак обмеження швидкості, і на 5%, що це літаючий змій, що застряг в деревах, і так далі - і нейронна архітектура потім повідомляє нейронної мережі, правильно це чи ні.

Але до недавнього часу вчені в галузі ШІ швидше уникали нейронних мереж. Вони з'явилися ще на зорі ІІ, але з точки зору розуму вони не давали майже нічого. Проблема в тому, що навіть самі базові нейронні мережі вимагали дуже потужних обчислень, і це було непрактично. Однак все ж невелика група дослідників на чолі з Джеффрі Хінтон з Університету Торонто займалася нейронними мережами і в підсумку распараллеліть алгоритми для суперкомп'ютерів, довівши правильність ідеї, але це сталося вже після установки графічних процесорів.

Повернемося до нашого знаку СТОП: великі шанси, що система буде видавати безліч неправильних відповідей в процесі навчання. Її потрібно навчати. Їй потрібно згодовувати сотні тисяч, мільйони зображень, поки вагові коефіцієнти вхідних даних не будуть налаштовані так точно, що правильну відповідь буде видаватися практично кожен раз - туман чи ні туману, сонце чи дощ. Ось на цьому етапі мережу і навчитися розпізнавати знак СТОП; або особа вашої мами в разі Facebook; або кота - що і зробив Ендрю Енджі в 2012 році в Google.

Прорив ЕнДжі полягав в тому, що він взяв ці нейронні мережі і зробив їх величезними, збільшивши кількість шарів і нейронів, і потім пропустив через них величезна кількість даних для навчання системи. В його випадку це були зображення з 10 мільйонів відеороликів з YouTube. ЕнДжі додав тієї самої глибини в навчання.

Сьогодні машини, що пройшли глибоке навчання, в деяких випадках видають результати краще, ніж люди: від розпізнавання котів і до ознак раку в крові і пухлин на знімках МРТ.

Програма Google AlphaGo вивчила урок і навчилася грати в го, граючи сама з собою знову і знову.

Завдяки глибокому навчання у ІІ є світле майбутнє

Глибоке навчання, фактично, широко запровадив машинне навчання в практику. Воно розбиває завдання так, що всі види машинного сприяння здаються можливими. Автомобілі без водіїв, краще превентивне охорону здоров'я, рекомендації фільмів - все це вже є або майже є сьогодні. За допомогою глибокого навчання ІІ може навіть дійти до стадії наукової фантастики, про яку ми так довго мріяли. Дайте мені C-3PO, будь ласка, а Термінатора залиште собі.

У чому різниця між штучним інтелектом, машинним навчанням і глибоким навчанням?
У чому різниця між штучним інтелектом, машинним навчанням і глибоким навчанням?
Але як?
І чому?
У чому різниця між штучним інтелектом, машинним навчанням і глибоким навчанням?
У чому різниця між штучним інтелектом, машинним навчанням і глибоким навчанням?
Але як?
І чому?
У чому різниця між штучним інтелектом, машинним навчанням і глибоким навчанням?
У чому різниця між штучним інтелектом, машинним навчанням і глибоким навчанням?

Новости