Раз многопроцессорные решения существуют уже 20 лет, почему же на массовый рынок они пришли только сейчас?
Дык, благодаря эмпирическому правилу Г. Мура.
И на данный момент всё ещё заметно, что бОльшая частота даёт бОльшую призводительность.
Глупость какая. Для ПК, если что, самым высокочастотным процессором по прежнему остается PentiumD 965XE с тактовой 3.73ГГц. Отнюдь не рекордсмен в подавляющем большинстве приложений на данный момент. Если обратите внимание, тактовая частота практически всех процессоров (не только x86), нацеленных на производительность, уже года 4 болтается в промежутке 2-3ГГц, при том, что если сильно захотеть, то ее можно форсировать (см. IBM Power6). Видимо, считают это не выгодным, предпочитая другие методы повышения производительности.
Для меня естественно в данный момент решать одну задачу с максимальной скоростью
А для меня (и большинства пользователей) - нет. ПК давно стал не только "вычислителем", но и еще центром коммуникаций и развлечения. Даже если у меня есть Большая Задача (и куча фоновых служб), я хочу убрать ее в трей и делать что-нить еще без тормозов и ручной раздачи приоритетов.
программировать тоже намного приятнее, чем постоянно заботиться о масштабируемости и решать дополнительные задачи.
Вы утрируете ситуацию. Типа, раньше было все просто - программируй себе последовательно и забот не знай, а сейчас думать надо, как параллелить. Нет, ничего подобного, для того, чтобы достигнуть высокой производительности, крепко думать над той или иной формой параллелизма приходится как минимум последние лет 10. Еще раз напомню, что суперскалярность, SIMD и разного рода мультитрединг - это _параллельные_ технологии увеличения производительности.
Рассуждения, о том что производительность упрётся в память, шину и т.д. не считаю верным проводить, так как теоритически это может не произойти, в отличие от экстенсивного наращивания ядер.
Хех, тогда вопрос - зачем процессору кэш-память? Сложная логика, 2-3 уровня, половина транзисторов современного процессора...