Goodnews.ua


Топ-8 худших процессоров за всю историю компьютеров

Октябрь 07
01:02 2018

За всю полувековую историю компьютеров различные компании выпустили несколько сотен процессоров. Разумеется, среди них были отличные для своего времени решения, были просто хорошие, и конечно же были CPU, при изучении которых возникал вопрос — зачем ЭТО вообще было выпускать? И именно о таких процессорах мы сегодня и поговорим.

Intel Itanium (2001)

1Intel Itanium 2 900 (3M, ES) QUD7QS 03.jpg (175 KB)

Эти процессоры были попыткой получить очень высокий уровень производительности в параллельных вычислениях без увеличения частот. Так, они могли выполнять до 6 инструкций за такт (к примеру, современные Core i умеют всего 4), обладали кэшем в 24 МБ (против сотен килобайт у Pentium тех лет), 64-битную адресацию памяти (и это за 5 лет до выхода пользовательских 64-битных систем) и очень эффективное ядро, которое существенно повышало производительность CPU при работе с несколькими потоками задач.
Увы — как говорится, такие решения «не взлетели». Да, с одной стороны, в режиме IA-64 это был самый быстрый процессор для вычислений с плавающей запятой, но вот в целочисленных вычислениях он был на уровне обычных x86-процессоров с той же частотой. Более того — если x86-код не был оптимизирован под Itanium, то производительность могла упасть до 8 раз в сравнении с x86-CPU с такой же частотой! Также стоит отметить, что кэш третьего уровня (L3) имел хоть и огромный по тем временам объем, но все же по скорости он был несильно быстрее ОЗУ, что опять же тормозило процессор.
Ну и окончательно «добило» Itanic (шутливое название Itanium, созвучное с Титаником) то, что его выпустили спустя 3-4 года после задуманного срока (ибо Intel приходилось конкурировать с AMD с сегменте пользовательских CPU, и Itanium постоянно откладывали). В итоге выход в продажу совпал с коллапсом рынка доткомов, что повлекло за собой падение продаж серверов, а с учетом того, что на рынке тогда были такие мастодонты, как IBM с архитектурой POWER и Sun со SPARC — затея Intel провалилась.
Конечно, компания всеми силами пыталась спасти свое детище, и в итоге последние процессоры этой линейки вышли аж в 2017 году (правда, на 32 нм техпроцессе 5-летней давности), но, как мы знаем, заменить x86 они так и не смогли, и сейчас в высокопроизводительном сегменте царствуют Xeon.
Intel Pentium 4 Willamette на Socket 423 (2000)

2p4-478vs423.jpg (156 KB)

Слева — «нормальный» P4 для Socket 478, справа — «плохой» P4 для Socket 423.
В 2000 году Intel запускает линейку процессоров Pentium 4, а вместе с ней и новый сокет 423. И все бы хорошо, но вот только из-за конструкционных особенностей производство CPU с частотой выше 2 ГГц для такого сокета было просто невозможным, и в итоге в 2001 году компания переходит на достаточно известный и даже до сих пор используемый в ультра-бюджетных б/у ПК Socket 478, под который уже выходили Pentium 4 с частотой вплоть до 3.4 ГГц.
Конечно, пользователи были очень «рады» тому, что их новенький сокет устарел спустя полгода, и в итоге был даже сделан адаптер, позволяющий устанавливать процессоры для Socket 478 на 423, но вот сами Pentium 4 для этого сокета можно смело назвать неудачным вложением средств.
Cyrix 6×86 (1996)

3Cyrix 6x86 MX PR233 FSB75 01.jpg (299 KB)

Сейчас выпустить x86-совместимый процессор практически нереально — все патенты на них поделены между Intel, AMD и VIA. Но вот в 90-ые с этим было все проще, и на рынке существовала линейка процессоров Cyrix, которые можно было использовать в тех же сокетах, что и Intel Pentium, но при этом стоили такие решения все же дешевле.
Более того, «курики» в целочисленных вычислениях были существенно быстрее Pentium тех лет — к примеру, 133 МГц Cyrix мог на равных работать с 166 МГц Pentium, и тогда это имело смысл, ибо большая часть офисного софта использовала как раз целочисленные вычисления. Проектировщики Cyrix думали, что так будет и дальше, и прогадали — мир стал переходить на вычисления с плавающей точкой.
И тут низкая производительность FPU (математического сопроцессора) у 6×86 дала о себе знать — во-первых, инструкции выполнялись минимум за 4 такта, во-вторых, они не были конвейеризированы. В итоге с плавающей точкой Cyrix работали на уровне Intel 486, а с учетом популярности Pentium программисты напрямую стали работать с ассемблером для извлечения максимальной выгоды от конвейеризированного и работающего с малыми задержками FPU Pentium. В результате в том же Quake разница в производительности между Pentium и Cyrix была почти двукратная, и с учетом того, что такого софта с каждым годом стало становиться все больше — преимущество Cyrix достаточно быстро сошло на нет.
Cyrix MediaGX (1997)

4GXm-200GP.jpg (172 KB)

Понимая, что «пора хватать чемоданы, вокзал отходит», компания стала метаться в попытках изобрести что-то новое, и итогом стала SoC MediaGX. Да-да, именно система-на-чипе — внутри было процессорное ядро 5×86, модули для работы с видео и аудио, контроллеры PCI и ОЗУ.
Идея была, конечно, хорошая, но вот компоненты были подобраны ужасно: так, 5×86 был конкурентом по целочисленным вычислениям лишь для Intel 486 (и это уже во времена Pentium II), не умел работать с кэшем L2 и имел совместимость с очень немногими платами, которые были рассчитаны именно под этот CPU.
В итоге эта SoC нашла применение лишь в нескольких компактных ноутбуках, где развернуть систему с полноценным CPU и графикой не представлялось возможным (а тут еще и видеопамять как таковая была не нужна — использовалась ОЗУ). Так что идея сделать SoC была отличная, и, как мы знаем, сейчас ее активно используют, но вот реализация была ужасной, что и погубило эту линейку чипов.
Texas Instruments TMS9900 (1976)

51200px-KL_TI_TMS9900_Black_Background.jpg (58 KB)

1976 год. Компания IBM ищет процессор для своего оригинального IBM PC. На выбор было два претендента — TMS9900 и Intel 8086/8088 (Motorola 68K находился тогда только в стадии разработки, а ждать IBM не хотела). TMS9900 имел 16 бит адресного пространства, а 8086 — 20. Казало бы, всего 25% разницы, но нет — на деле если TMS9900 мог адресовать лишь 64 КБ памяти, то 8086 — уже целый мегабайт. TI также пренебрегла разработкой 16-битного периферийного чипа, из-за чего процессор мог работать лишь по 8-битной шине с очень низкой на то время производительностью. В TMS9900 также не было встроенных регистров общего назначения — они хранились в ОЗУ. В итоге нет ничего удивительного в том, что IBM выбрала Intel, и кто знает — если бы TI смогла тогда сделать лучший процессор, то, возможно, сейчас мы бы использовали именно их продукцию.
Qualcomm Snapdragon 810 (2014)

6samsung-group-to-drop-qualcomm-incs-snapdragon-810-for-galaxy-s6.@750.jpg (78 KB)

В 2014 году компания Qualcomm предпринимает первую попытку создания 8-ядерного процессора на архитектуре big.LITTLE — с 4 мощными Cortex A-57 ядрами и 4 слабыми Cortex-A53. Идея была хорошая, но вот техпроцесс был выбран крайне неудачно — это были 20 нм от TSMС. Вы помните еще какой-либо CPU на этом техпроцессе? Правильно, их больше и не было — к примеру, тот же Samsung вообще решил его пропустить, и было за что — Snapdragon 810 так и остался в нашей памяти как очень горячий процессор, который мог выдавать рекордную на тот момент производительность от силы минуту. Qualcomm пыталась исправить ситуацию, выпустив несколько ревизий этой SoC, но в итоге проблема так и не была решена.
IBM PowerPC G5 (2005)

7PPC-970fx.jpg (99 KB)

К середине нулевых было понятно, что Intel с их архитектурой x86 все же лучше, чем IBM с PowerPC. Когда появились первые процессоры G5, Apple надеялась, что в течение года IBM все же сможет преодолеть планку в 3 ГГц и тем самым выйти на один уровень с Intel, но, увы этого так и не произошло — вернее, такая частота достигалась, но для охлаждения приходилось использовать систему водяного охлаждения. В итоге Apple было нечем заменить G4 в своих ноутбуках, в результате чего было принято решение о переходе на Intel x86.
Pentium III 1.13 ГГц (2000)

8Intel_SL5LV_BX80530C113351_Pentium_III_(1.13GHz-S)_1.1GHz_133MHz_Bus_Speed_Socket-370_512Kb_L2_Cache_Single_Core_Processor.jpg (89 KB)

Архитектура Pentium III была прекрасной для своего времени, и топовые решения на ней в первое время даже обходили Pentium 4 с куда большей частотой. Увы — Intel с AMD тогда участвовали в гонке «кто первый выпустит процессор с частотой выше 1 ГГц», и Intel решила закрыть глаза на то, что P3 на 180 нм с частотой в целых 1.13 ГГц работают нестабильно, и выпустила их в продажу.

Итог был немного предсказуем — пользователи, купив такой горячий, дорогой, да и еще к тому же нестабильный «камушек», требовали от Intel возврата средств, так что компании пришлось отозвать всю партию. В результате стабильные решения на 1.1 и 1.13 ГГц появились лишь годом позже, в ревизии D0.

Как видите, во все времена разные компании ошибались при создании CPU. В некоторых случаях это приводило лишь к небольшим проблемам, но зачастую это стоило им значительной доли рынка, а то и вообще ухода с него. И, разумеется, выше представлены далеко не все неудачные CPU, и в следующей части мы продолжим их список.

Источник: iguides.ru

Share

Статьи по теме







0 Комментариев

Хотите быть первым?

Еще никто не комментировал данный материал.

Написать комментарий

Комментировать

Залишаючи свій коментар, пам'ятайте, що зміст та тональність вашого повідомлення можуть зачіпати почуття реальних людей, що безпосередньо чи опосередковано пов'язані із цією новиною. Виявляйте повагу та толерантність до своїх співрозмовників. Користувачі, які систематично порушують це правило, будуть заблоковані.

Website Protected by Spam Master


Останні новини

Період утримання у таборі для військовополонених не зараховується у строк відбування покарання – ВС

Читать всю статью

Ми у соцмережах




Наші партнёри

UA.TODAY - Украина Сегодня UA.TODAY
Goodnews.ua