Главная

Статьи

Кінець «гонки мегагерц», або Чому провалилася «Віста»?

Кінець «гонки мегагерц», або Чому провалилася «Віста»?

Прівень А.І.

Висловлено міркування з приводу головної причини провалу операційної системи Windows Vista - одного з найбільш значних за масштабом комерційних провалів в історії Microsoft, прогледіли досягнення критично важливою підсистемою комп'ютера - процесором - фізичної межі по головному параметру, яким на той момент була тактова частота. На підставі даних сучасної ринкової статистики показано, що, незважаючи на вичерпання ресурсу підвищення тактової частоти, а також перехід від стаціонарних комп'ютерів до портативних і від локальних обчислень до «хмарних», продуктивність процесора і раніше залишається найбільш важливим його параметром серед тих, поліпшення яких затребуване покупцями персональних комп'ютерів.

Процес зміни головного тренда розвитку технічної системи, чим би вона не була викликана, завжди несе в собі певний елемент непередбачуваності, а прогноз розвитку подій під час цього процесу ніколи не буває до кінця визначеним. В історії техніки подібні речі відбувалися багато разів, і завжди ця подія була в якійсь мірі очікуваним і в якійсь мірі - несподіваним для його безпосередніх учасників.

Чи були способи попередити такий розвиток подій, і в який момент (і на якій саме підставі) потрібно було бити на сполох? На ці питання напевно буде стільки ж думок, скільки і учасників дискусії. Проте, автор ризикне висловити свою точку зору, виходячи з тенденцій розвитку «процессоростроения» для персональних комп'ютерів, які спостерігаються протягом останніх десятиліть.

Не будучи фахівцем в області електроніки, автор може сподіватися лише на те, що він використовував об'єктивні історичні дані, поряд з досить простими математичними викладками, дозволять йому уникнути грубих помилок.

У численних публікаціях ([1, 2] та ін.) Наводиться безліч причин комерційного провалу операційної системи Windows Vista від Microsoft - за деякими оцінками, найзначнішого провалу в історії компанії. Автор, однак, не знайшов у цих публікаціях опису того, що могло б стати справжньою причиною цього провалу. Описуються лише слідства - низька продуктивність, несумісність з попередніми версіями, повільність завантаження системи і т.д. Ці дефекти можна було очікувати, однак, від будь-якого іншого розробника - тільки не Microsoft!

Справді, саме в компанії Білла Гейтса завжди приділяли особливу увагу забезпеченню сумісності з попередніми версіями операційних систем - і аж до Windows XP підтримували програми, написані під будь-яку з цих версій, починаючи з 16-розрядної MS DOS. А в Вісті раптом відмовилися від підтримки навіть попередньої версії Windows XP, яка домінувала на той момент на ринку! І саме в корпорації Microsoft завжди приділяли максимум уваги тому, щоб швидкість роботи програм залишалася на прийнятному для користувача рівні, і, починаючи, щонайменше, з 1993 року (Windows 3.1), не допускали в цьому відношенні серйозних прорахунків - що б з цього приводу не говорили опоненти.

А першопричина, в общем-то, лежить на поверхні, якщо ми зіставимо час розробки Windows Vista з подіями, що відбувалися в цей час в індустрії мікропроцесорів для персональних комп'ютерів.

Аж остаточно 2000 року ніщо, здавалося б, не віщувало тут бурхливих змін. «Закон Мура», справно діяв протягом 40 попередніх років, продовжував діяти. Згідно з однією з його формулювань, продуктивність процесора збільшується вдвічі кожні 18 місяців [3]. Хоча поняття «продуктивність процесора» є не цілком однозначним (ця величина залежить від багатьох факторів, в тому числі і від розв'язуваної задачі), цілком прийнятною її оцінкою в той час була тактова частота ядра процесора. Протягом 1990-х років ця величина у персональних комп'ютерів росла навіть трохи швидше вищевказаного темпу, подвоюючи в середньому кожні 14-15 місяців (рис. 1). Тут і надалі автор спирається на дані корпорації AMD [4, 5], оскільки в цих відомостях, крім технічних характеристик випускаються процесорів різних років, вказані тодішні ціни і, відповідно, є можливість зрозуміти, які з цих процесорів були реально доступними для масового користувача . На жаль, аналогічних даних для компанії Intel автор знайти не зміг.

На жаль, аналогічних даних для компанії Intel автор знайти не зміг

Мал. 1. Екстраполяція «закону Мура» для тактової частоти з кінця 2000 року на початок 2012 р
Джерело даних: [4, 5]

Якби вищевказана закономірність тривала і зараз, нинішні «персоналки» мали б терагерцеві частоти (1 терагерц, ТГц = 1,000,000,000,000 герц = 1000 гігагерц, ГГц), перевершивши показники 12-річної давності приблизно в 1000 разів. Насправді, однак, процес пішов куди повільніше, і тактова частота сьогоднішніх процесорів лише приблизно вдвічі вище тодішньої (з урахуванням багатоядерності, продуктивність доступних за ціною процесорів з тих пір виріс раз в 6-6-8) - див. Рис. 2. Темпи реального зростання тактової частоти за останні 10 років показані на рис. 3.

3

Мал. 2. Тактові частоти найбільш популярних мікропроцесорів в жовтні 2012 р
Джерело даних: amazon. com

com

Мал. 3. Зростання максимальної тактової частоти доступних за ціною (до 150-200 $) процесорів корпорації AMD в 2001-2012 рр.
Джерело даних: [4, 5]

Якщо ми тепер «накладемо» ці дані на діяльність корпорації Microsoft (рис. 4), то передбачувана причина провалу операційної системи Windows Vista стане цілком зрозумілою. Справді, починаючи цю розробку ще в 2001 р (і, отже, готуючи обгрунтування проекту, по всій видимості, ще в 2000-му) з розрахунком на випуск в 2004-му, фахівці корпорації зобов'язані були враховувати зростання характеристик комп'ютерного «заліза »протягом терміну розробки. Зрозуміло, вони це завжди робили: в іншому випадку операційні системи від Microsoft завжди «літали б, як пташки», оскільки за час їх розробки (зазвичай близько 3 років) тактові частоти встигали збільшитися в 4-5 разів. Судячи з того, що робота Windows ніколи не була занадто швидкою (але була, проте, цілком прийнятною для більшості користувачів), прогнози фахівців Microsoft в цілому цілком виправдовувалися. А прогнози ці, зрозуміло, будувалися на вищезгаданому «законі Мура».

На жаль, інформація про те, як реагували в компанії Microsoft на подальші події, мабуть, залишиться таємницею. Ми спробуємо, проте, відновити логіку дій компанії в припущенні, що керівництво компанії відстежував поточний стан в процесорної індустрії і намагалося прогнозувати її розвиток в найближчому майбутньому шляхом лінійної екстраполяції спостережуваних трендів - тобто так, як це зазвичай і робиться при короткостроковому прогнозуванні. Як видно з рис. 4, при екстраполяції з 2000-2001 на 2004 р такий прогноз дав фатальний збій, завищивши очікувану частоту процесорів приблизно раз на вісім порівняно з реальністю (втім, тоді ще не відомої).

Мал. 4. Екстраполяція тактової частоти процесорів по «закону Мура» з 2001 на 2004 р
Джерело даних: [4, 5]

Якби «Вісту» випустили з такими характеристиками, як це випливало з результатів вищеописаної екстраполяції, то вона, швидше за все, не змогла б запускатися взагалі. Зрозуміло, в корпорації Microsoft це розуміли, і випуск операційної системи кілька разів відкладався. Зрозуміти неминучість цього кроку в корпорації повинні були не пізніше, ніж в 2002-му році, коли стало вже цілком ясно, що зростання продуктивності «заліза» помітно відстає від прогнозів (рис. 5). Однак ще залишалася надія, що хай не до 2004, але до 2005 р тактова частота досягне 6-7 гігагерц. По всій видимості, саме на це і були націлені розробники цієї системи, відклавши її випуск спочатку на 2005, а потім і на 2006 рік.

Мал. 5. Корекція «закону Мура» за даними на 2002 р
Джерело даних: [4, 5]

Тільки 8 листопада 2006 року було, нарешті, оголошено про випуск цієї операційної системи в світло [6]. Однак, як видно з малюнка, частота доступних за ціною процесорів з 2002 року збільшилася на той час лише на 10% - з 2.2 до 2.4 ГГц, замість очікуваних 6-7 ГГц. З'явилися в той час двоядерні процесори підвищили «ефективну» продуктивність, максимум, до 3.5-4 ГГц, і коштували вони тоді дуже недешево (див. Нижче).

Зрозуміло, що протягом останніх років підготовки операційної системи до випуску фахівці компанії повинні були максимум сил кинути на прискорення роботи програми. До кінця їм це зробити все одно не вдалося, а то, що вдалося, було явно зроблено за рахунок відмови від ряду первинних вимог. У їх числі - сумісність з попередніми версіями системи, перш за все з ХР; іншими словами, підтримка роботи програм, написаних для Windows XP, без зміни їх коду. Підтримка сумісності вимагала додаткового часу на розробку програм і до того ж кілька знижувала загальну продуктивність роботи системи - і те, і інше було для корпорації в даних умовах неприйнятно.

Фактичний (хоча і всіляко приховується спочатку) відмова від підтримки сумісності зі старими програмами привів до того, що реально під цією операційною системою працювали тільки ті програми, які були спеціально для неї написані, зокрема, Microsoft Office 2007 - ще один по суті провальний продукт , що розробляється приблизно в ті ж терміни, що і Vista, розробники якого, правда, зробили додатково до вищеописаного ще ряд серйозних прорахунків, опис яких, однак, виходить за рамки нашої розповіді. Зауважимо лише, що попередня версія цього продукту - MS Office XP - працювала під Вистой тільки після установки спеціального «пакета сумісності». Іншими словами, без зміни вихідного коду під Вистой не працювали (або працювали вкрай нестійке) навіть попередні програми самої Microsoft.

Не будемо детально розглядати тут воістину драконівські, антиринкові заходи, які були вжиті корпорацією Microsoft для порятунку продукту, зокрема, фактична заборона вендорам встановлювати попередню систему Windows XP на нові комп'ютери. Зауважимо лише, що вже менш ніж через два роки після старту продажів була в форсованому темпі підготовлена ​​до випуску наступна, вже набагато більш вдала операційна система Windows 7, при розробці якої корпорація спочатку «закладалася» на реальні можливості комп'ютерного «заліза», показані на попередніх малюнках.

А ми постараємося проаналізувати, чи можна було (і якщо можна, то як) побачити в «спокійній» обстановці періоду зміни тисячоліть ознаки наближення швидкої катастрофи.

Ра рис. 6 показана динаміка зміни цін на мікропроцесори компанії AMD в період з 2001 по 2010 роки.

Як видно з малюнка, в 2001-2002 роках практично єдиним параметром, що визначав ринкову ціну процесора, була якраз його тактова частота. Її коефіцієнт кореляції з ціною найбільш продаваних процесорів становив понад 0.9, дійшовши до +0.93 в грудні 2002 р Іншими словами, покупці охоче платили додаткові гроші за більш продуктивні процесори. Зрозуміло, що всі зусилля розробників були на збільшення цього показника, по можливості без подорожчання продукту. І аж до кінця 2002 року розробникам, як видно з рис. 4, це цілком вдавалося.

Різкі зміни настали в 2003 році. Відмітка 2.2 ГГц виявилася неначе зачарованою: переступити через неї вдалося лише в 2004 році, піднявши ціну процесора з 80 до 700 (!) Доларів. Після цього всі зусилля були головним чином спрямовані на здешевлення багатоядерних процесорів, в чому корпорація в результаті вельми досягла успіху. Однак шести- і навіть восьмиядерні процесори збільшили продуктивність, максимум, в 3-4 рази в порівнянні з одноядерними (це випливає з значень «ефективної продуктивності», зазначених самим виробником), і сьогодні більшість найбільш популярних процесорів містить тільки три-чотири ядра. За цей же час тактова частота доступних за ціною процесорів зросла, максимум, до 3.5-4 ГГц (див. Рис. 1), що в сукупності дало «ефективну» продуктивність, відповідну одноядерними процесору з частотою близько 10 ГГц або трохи більше.

При цьому продуктивність як і раніше залишається якщо не найважливішим, то одним з найважливіших параметрів процесора, про що свідчить досить високий коефіцієнт кореляції твори максимальної тактової частоти на число потоків даних (наближена оцінка продуктивності) з ціною, що дорівнює +0.73, а за вирахуванням декількох старих моделей +0.85 (рис. 7). Іншими словами, масовий покупець як і раніше платить більше грошей за більш продуктивні процесори. Не просто «готовий платити» - а реально платить.

Мал. 6. Динаміка цін найбільш популярних процесорів виробництва AMD в 2001-2010 рр.
Джерело даних: [4, 5]

Джерело даних: [4, 5]

Мал. 7. Взаємозв'язок між ринковою ціною і продуктивністю найбільш продаваних мікропроцесорів за даними amazon. com на 18 жовтня 2012 р
Продуктивність оцінювалася як твір числа потоків на максимальну тактову частоту процесора (в турбо-режимі там, де він є).
Джерела даних про параметри процесорів тут і далі: [4, 5, 7]

Отже, ми бачимо, що раптовий обвал росту продуктивності процесорів в 2003 році не мав під собою «ринкових» причин. Ринок бажав продовження зростання цієї характеристики тоді і продовжує бажати зараз. Це свідчить про те, що причиною припинення зростання послужило досягнення якогось фізичного межі.

Зазвичай, проте, в таких випадках ще до досягнення граничних значень головного параметра системи (на підвищення якого перш за все спрямовані зусилля розробників) спостерігаються ознаки уповільнення темпів його зростання, коли кожне нове збільшення дається дорожче і повільніше, ніж попереднє. Як результат цього процесу, підвищення головного параметра системи (частіше комплексного [8], але іноді і індивідуального) описується S-подібної кривої, добре відомої з численних публікацій (див., Зокрема, [9]).

Чому в разі мікропроцесорів межа настав практично раптово, без будь-яких провісників уповільнення темпів зростання? Для відповіді на це питання спробуємо змоделювати ситуацію з урахуванням інтересів як покупців, так і виробників комп'ютерів і програмних продуктів.

Для чого купують персональні комп'ютери? Відповідь на це питання можна легко отримати, виходячи з того, які програми найбільше часу працюють на комп'ютерах їх користувачів. Відповідь (у всякому разі, за станом на 2003 рік) досить очевидний:

  1. операційна система і «системні» програми (включаючи інтернет-браузери і антивірусний захист);
  2. комп'ютерні ігри;
  3. офісні програми.

Нескладно зрозуміти, що корпорація Microsoft разом з декількома провідними розробниками комп'ютерних ігор є головними бенефіціарами ринку програм для персональних комп'ютерів. Аналогічна ситуація і з мікропроцесорами: майже всі вони виробляються компаніями Intel і AMD.

Найважливіше для нас полягає в тому, що комерційний інтерес всіх вищевказаних компаній «замикається» на одному і тому ж параметрі, і цей параметр - продуктивність процесора. Щоб це зрозуміти, будемо виходити з самоочевидного:

  1. Виробникам персональних комп'ютерів необхідно постійно продавати нові комп'ютери. При цьому у більшості платоспроможних покупців комп'ютери вже є, їх функціонал в цілому цілком прийнятний, і до фізичного зносу ще дуже далеко.
  2. Виробникам ігрових і офісних програм потрібно продавати нові версії своїх програм. При цьому у більшості платоспроможних покупців колишні версії таких програм вже є, їх функціонал в цілому цілком прийнятний, і вони можуть працювати протягом необмеженого часу (ми як і раніше розглядаємо ситуацію до 2003 року, коли програм, які розповсюджуються по термінової підписці, ще майже не було).

У цій ситуації швидке зростання продуктивності процесорів дозволив одним махом убити двох зайців відразу. Розробники програм, перш за все ігрових, кожну нову версію робили так, щоб в повній мірі використовувати зростання продуктивності процесора.

це давало можливість зробити алгоритми більш складними і цікавими, дія більш динамічним, а поведінка персонажів більш «живим». При цьому, природно, працювати такі програми могли тільки на нових, більш швидких комп'ютерах: для них писати програми було, при інших рівних, ще й простіше. У свою чергу, розробники процесорів та іншого «заліза» робили все можливе, щоб нові комп'ютери якомога більше перевершували за своїми можливостями старі: тільки в цьому випадку їх можна було продати покупцям, які вже мають «старий», а в дійсності зовсім ще недавно куплений і цілком працездатний комп'ютер.

З урахуванням цієї обставини, витрати розробників на вдосконалення процесорів переставали бути критичним фактором, здатним стримати темпи зростання параметрів: величезний попит на все більш швидкі процесори - незалежно від поточних значень їх продуктивності! - робив такі розробки економічно виправданими при практично будь-яких витратах.

Як кажуть в таких випадках фізики, утворилася система з домінуючою позитивним зворотним зв'язком, коли збільшення будь-якого параметра є само по собі стимулом до його подальшого збільшення. Численні приклади з природничих наук свідчать, що в таких випадках зміна цього параметра в часі підпорядковується експоненціальним законом. Так розвивається популяція живих організмів при надлишку ресурсів за відсутності хижаків [10, 11], по цій же кривій зростає тепловиділення під час вибуху [12] і так далі. Чи варто дивуватися, що за тією ж самою кривою змінювалася і продуктивність комп'ютерних процесорів, зробивши реальністю вищезгаданий «закон Мура»?

Однак вибух не триває вічно - він припиняється набагато динамічніше, ніж розвивається. Аналогічно, популяція живих організмів швидко припиняє своє зростання з виснаженням ресурсів [13]. Точно так само і зростання продуктивності процесорів був зупинений тільки тоді, коли підвищити їх тактову частоту до очікуваних покупцями значень стало не просто важко або дорого, але практично неможливо.

Поки система мала ресурси для зростання - це зростання забезпечувався фактично будь-яку ціну. Зростання припинився, коли ціна стала стрімко наближатися до нескінченності - що ми і бачимо на рис. 6 на графіках за 2003-2004 роки.

У 2007 році, коли «закон Мура» для тактової частоти процесорів персональних комп'ютерів перестав діяти вже чотири роки тому (див. Рис. 4), автор цього «закону» Гордон Мур заявив, що «закон, очевидно, скоро перестане діяти через атомарної природи речовини і обмеження швидкості світла »[3]. І він, звичайно ж, мав рацію в своєму «прогнозі» - точніше, в поясненні причин події. Справді, межа пов'язана з нічим іншим, як «обмеженням швидкості світла».

Протягом всього часу, поки тривала «гонка мегагерц», лише один значущий параметр мікропроцесорів, який «в теорії» можна було поліпшити, залишався практично незмінним: цим параметром був фізичний розмір ядра. Сталість цього параметра диктувалося тим, що він був «зав'язаний» на протиріччя (рис. 8): при збільшенні розміру ядра у розробників з'являлася можливість збільшити число елементів електричної схеми, що давало виграш в функціоналі і продуктивності (позитивні ефекти), але при цьому збільшувалася вартість і, крім того, підвищувався споживання енергії, яку було необхідно кудись відвести щоб уникнути перегріву процесора і його виходу з ладу, і, в разі мобільних пристроїв, це знижувало ресурс їх роботи (небажані еф єкти). Як число елементів схеми, так і споживана ними енергія зі збільшенням розміру процесора росли, в першому наближенні, пропорційно квадрату його діагоналі. У цій ситуації не можна було (або дуже невигідно) ні сильно збільшувати розмір процесора, ні сильно зменшувати його. Компромісне значення порядку 1 сантиметра протрималося з моменту появи перших «персоналок» до наших днів практично незмінним.

Компромісне значення порядку 1 сантиметра протрималося з моменту появи перших «персоналок» до наших днів практично незмінним

Мал. 8. Схема протиріччя у вимогах до мікропроцесорах

Однак при будь-тактовій частоті процесора, природно, необхідно, щоб за один такт електричний сигнал встиг «пробігти» від центру процесора до його краю і назад. З урахуванням швидкості світла (300,000 км / с) отримуємо мінімальний час проходження відстані 1.4 см (діагональ квадрата зі стороною 1 см), що дорівнює приблизно 0.05 наносекунди, що відповідає гранично можливої ​​тактовій частоті приблизно 20 гігагерц.

«Але, дозвольте, адже зростання тактової частоти реально зупинився на цифрах вдесятеро менших!» - заперечить уважний читач, і буде правий. «Інша» правда, однак, полягає в тому, що при наближенні до фізичної межі на певну відстань вартість подальших кроків в цьому напрямку починає зростати дуже різко. Так званий «закон Парето» [14] (званий часто «правилом 20:80») говорить, що критичним значенням зазвичай є досягнення приблизно 80% від граничного значення. З численних причин відзначимо в даному випадку хоча б те, що швидкість поширення електричного сигналу в твердому тілі істотно нижче швидкості світла у вакуумі, - втім, зроблена вище «оцінка зверху» є в будь-якому випадку дуже наближеною.

В даному випадку представляється логічним вважати «відстань» до граничного значення параметра за логарифмічною шкалою, оскільки саме ця шкала (відповідно до вищезгаданого «законом Мура») найкраще відображала тимчасової хід розвитку системи: логарифм тактової частоти змінювався пропорційно часу. Беручи тактову частоту перших більш-менш масових персональних комп'ютерів (IBM PC XT) дорівнює приблизно 1 мегагерц (на той момент були вже доступні 6-мегагерцові комп'ютери, але вони коштували дуже дорого), отримуємо, що за шкалою десяткових логарифмів відстань до фізичної межі тоді становило 4.3 одиниці. 80% від цього значення відповідають 3.4 одиниці десяткового логарифма, що рівносильно збільшенню значення параметра в 10 ^ 3.4 = 2750 разів. Іншими словами, за досить приблизними підрахунками, різкого уповільнення процесу зростання тактової частоти можна було очікувати на позначці трохи нижче 3 ГГц.

Остання величина майже ідеально відповідає фактичним даним, показаним на рис. 6. Справді, різниця між 2.75 ГГц і 2.2 ГГц відповідає приблизно 0.1 одиниці десяткового логарифма, що становить менше 3% від загального приросту цієї величини за два десятиліття (з 1981 по 2002) і відповідає приблизно 5 місяців зростання відповідно до «законом Мура ». Іншими словами, ще в 1980-х роках можна було в принципі передбачити дату закінчення дії «закону Мура» для тактової частоти мікропроцесорів з точністю до 5 місяців ?! Якщо навіть це і не зовсім так, то провал Windows Vista важко пояснити чимось, крім «ляпу» проектувальників.

Відзначимо, що за допомогою недавно розробленої нами моделі [15, 16] можна було передбачити неминучий криза «закону Мура» і без змістовного аналізу його причин. Проведені нами розрахунки по цій моделі показали, що єдино можливим варіантом розвитку подій в ситуації експоненціального зростання головного параметра системи є різке, практично припинення цього зростання після досягнення деякого значення (рис. 9). І хоча модель сама по собі не дає відповіді на питання, при якому саме значенні і, відповідно, в який саме момент часу це повинно статися, сам по собі прогноз раптового припинення росту міг би стимулювати до пошуку можливих причин такого «поведінки» системи. Хтозна - якби експерти з Microsoft мали в своєму розпорядженні цю досить просту модель, можливо, Білл Гейтс був би зараз на кілька мільярдів багатший ...

Хтозна - якби експерти з Microsoft мали в своєму розпорядженні цю досить просту модель, можливо, Білл Гейтс був би зараз на кілька мільярдів багатший

Мал. 9. Апроксимація кривої зростання тактової частоти процесорів персональних комп'ютерів за допомогою пропонованої моделі (малюнок відтворений з [15, 16])

Проведений аналіз показав, що причини гучного комерційного провалу операційної системи Windows Vista можуть отримати досить просте і цілком природне пояснення, якщо припустити, що експерти корпорації Microsoft при проектуванні цієї системи грубо помилилися в прогнозі темпів зростання тактової частоти процесорів персональних комп'ютерів, багаторазово завищивши прогнозне значення цієї характеристики в порівнянні з реально досяжним на момент початку продажів нової операційної системи. Така помилка, в свою чергу, легко з'ясовна в припущенні, що зазначені експерти засновували свої прогнози на так званому «законі Мура», диктує, зокрема, подвоєння тактової частоти процесорів кожні 15-18 місяців. Дія вищевказаного «закону», неухильно дотримуватися доти протягом усіх двох десятиліть існування персональних комп'ютерів на масовому ринку, різко, практично миттєво обірвалося буквально відразу ж після початку розробки Windows Vista. Як результат, екстраполяція зазначеного «закону» всього на кілька найближчих років приводила до значень тактової частоти, які опинилися в підсумку майже на порядок вище реальних. У цій ситуації спроби врятувати продукт, спочатку спроектований під абсолютно нереальні характеристики комп'ютерного «заліза», могли призвести тільки до половинчастим і не дуже вдалим рішенням, що ми і спостерігали.

Подолати наслідки помилок проектування компанії Microsoft вдалося лише в наступній операційній системі Windows 7, яка спочатку розроблялася вже з урахуванням реальних, значно менш високих темпів зростання продуктивності процесорів в «пост-Муровскую» епоху.

З іншого боку, припинення зростання тактової частоти процесорів було хоча і раптовим, але досить передбачуваним. На користь того, що все станеться саме так, свідчив, зокрема, тривалий експоненціальне зростання тактової частоти, що не демонстрував ніяких ознак уповільнення. Ця ситуація є для розвитку технічних систем не цілком природною. Автор не стверджує, що передбачуваний їм механізм, який призвів до саме цієї залежності тактової частоти (і інших характеристик) від часу, є вичерпним або єдино можливим. Однак ситуація в будь-якому випадку вимагала додаткового аналізу, який, судячи з усього, зацікавленими сторонами проведений не був.

Після того, як неминуче трапилося і «закон Мура» щодо тактової частоти процесорів припинив свою дію, комп'ютерна індустрія була змушена пристосовуватися до нових реалій, в яких, проте, як і раніше було потрібно якось підвищувати продуктивність роботи комп'ютерів. Для цього процесори «обзавелися» декількома ядрами (деякі з них стали до того ж багато-), а частина найбільш трудомістких обчислень була перенесена на віддалені «хмарні» сервера, для яких проблема підвищення продуктивності так гостро не стоїть.

Перехід до «хмарних» обчислень, однак, не привів до зміни пріоритетів в удосконаленні процесорів персональних комп'ютерів. Аналіз останніх ринкових даних показує, що продуктивність процесора і раніше залишається його головним параметром, поліпшення якого найбільш затребуване масовим покупцем. Чи відбудеться для цього показника «насичення», за яким інтерес покупців до нього впаде? По всій видимості, так. Але поки що говорити про таку перспективу передчасно.

  1. Vista найбільший провал в історії Microsoft, http://viennaos.net/articles/1355-vista-velichajshij-proval-v-istorii-microsoft.html
  2. Microsoft визнає провал Windows Vista, http://habrahabr.ru/post/7668/
  3. Закон Мура. вікіпедія, http://ru.wikipedia.org/wiki/%D0%97%D0%B0%D0%BA%D0%BE%D0%BD_%D0%9C%D1%83%D1%80%D0%B0
  4. AMD product information, http://products.amd.com
  5. CPU World, http://www.cpu-world.com
  6. Development of Windows Vista. Wikipedia, http://en.wikipedia.org/wiki/Development_of_Windows_Vista
  7. Intel product information, http://ark.intel.com
  8. Кинін А.Т., Леняшін В.А., Фейгенсон Н.Б. Вибір параметрів для опису розвитку технічних систем уздовж «лінії життя». Праці конф. ТРІЗФест-2009, http://www.metodolog.ru/node/294
  9. Любомирський А., Литвин С. Закони розвитку технічних систем, 2003 http://www.metodolog.ru/00767/00767.html
  10. Структура і властивості популяцій. Проект «Вся біологія», http://sbio.info/page.php?id=161
  11. Сєдова Г.П. Закономірності росту біологічних об'єктів. 2004, http://www.smolensk.ru/user/sgma/MMORPH/N-10-html/sedova/Sedova2004.htm
  12. Корольченко А.Я. Процеси горіння і вибуху. http://nashaucheba.ru/v28231/%D0%BA%D0%BE%D1%80%D0%BE%D0%BB%D1%8C%D1%87%D0%B5%D0%BD%D0%BA % D0% BE_% D0% B0.% D1% 8F ._% D0% BF% D1% 80% D0% BE% D1% 86% D0% B5% D1% 81% D1% 81% D1% 8B_% D0% B3% D0% BE% D1% 80% D0% B5% D0% BD% D0% B8% D1% 8F_% D0% B8_% D0% B2% D0% B7% D1% 80% D1% 8B% D0% B2% D0% B0? page = 3
  13. Klein DR the introduction, increase, and crash of reindeer on St. Matthew island, http://www.greatchange.org/footnotes-overshoot-st_matthew_island.html
  14. Закон Парето. вікіпедія, http://ru.wikipedia.org/wiki/%D0%97%D0%B0%D0%BA%D0%BE%D0%BD_%D0%9F%D0%B0%D1%80%D0%B5%D1 % 82% D0% BE
  15. Priven AI, Kynin AT Simple phenomenological model of "S-curve" growth in engineering systems. - In: Proc. 2nd Int. Conf. on Systematic Innovation (ICSI) & AITRI Innovation Week, Shanghai, 2011 року.
  16. Прівень А.І., Кинін А.Т. Модель зростання параметрів технічних систем з урахуванням зміни надсистемне запитів. Metodolog.ru, http://www.metodolog.ru/node/1171

Кінець «гонки мегагерц», або Чому провалилася «Віста»?
Чи були способи попередити такий розвиток подій, і в який момент (і на якій саме підставі) потрібно було бити на сполох?
Чому в разі мікропроцесорів межа настав практично раптово, без будь-яких провісників уповільнення темпів зростання?
Для чого купують персональні комп'ютери?
Чи варто дивуватися, що за тією ж самою кривою змінювалася і продуктивність комп'ютерних процесорів, зробивши реальністю вищезгаданий «закон Мура»?
Чи відбудеться для цього показника «насичення», за яким інтерес покупців до нього впаде?
Php?
D0% BF% D1% 80% D0% BE% D1% 86% D0% B5% D1% 81% D1% 81% D1% 8B_% D0% B3% D0% BE% D1% 80% D0% B5% D0% BD% D0% B8% D1% 8F_% D0% B8_% D0% B2% D0% B7% D1% 80% D1% 8B% D0% B2% D0% B0?

Новости