Intel Core I7

DANIK

Новичок
core i7 очень дорого стоит а ещё материнку для него...... короче денег надо много :blink:
 

Steeply

Skynet
200000руб и тебе атого компа на долго хватит :blink: ...... но это дорого :D
за 100 000руб. я соберу компик с 3 видяхами GF260, 8 гб корсаровской оперативы, на топ процессоре Интел Квадра.
и 2 терабайтными винтами.
И такого компа мне тоже на долго хватит :lol:
а на оставшиеся 100 000 т.р. через это "долго" я смогу еще раз собрать комп раз в 5 круче того, что ты сейчас соберешь за "200000руб" :)
 

Father

Новичок
материнка и и младший в линейке камень обойдутся в косарей 17
 

IgoGZ

Пользователь
материнка и и младший в линейке камень обойдутся в косарей 17
Чего гадать на кофейной гуще?
Вот прайс ф-центра:

Цена 1 - при покупке в кредит, цена 4 - за наличный рассчет.
К ценам добавьте примерно 10...15% и получите цены техностиля.
 

Timophey

Уже освоился
А что такого плохого в HT? Или ты ждшь от нее производительности как от проца с удвоенным количеством ядер?
зачем её тогда делать...
лишнее распараллеливание только гемор для производителя ПО
ixbt показывал уже, что большинство игр даже больше 2х ядер не видят и не используют, а тут 8 выходит
 

GHerz

Пользователь
зачем её тогда делать...
лишнее распараллеливание только гемор для производителя ПО
ixbt показывал уже, что большинство игр даже больше 2х ядер не видят и не используют, а тут 8 выходит

в task manager очень красиво :lol:
 

Mek_ph

Активный пользователь
зачем её тогда делать...

HT и несколько для других целей нужен.

лишнее распараллеливание только гемор для производителя ПО
ixbt показывал уже, что большинство игр даже больше 2х ядер не видят и не используют, а тут 8 выходит

Это сейчас не используют... А в перспективе? Или будем на "ленивых" программистов ориентироватся? Программисты подтянутся и будут использовать большее количество ядер. Многие возможности современных процов тоже не используются, например наборы инструкций SSE. Внедрение их использования происходит с большим запозданием, иначе сложно обеспечить совместимость с предыдущими поколениями процов.

Кроме того, существуют задачи которые неплохо параллелятся.
В играх как минимум игровой движок, графический движок, это уже можно в два потока, плюс в системе Direct3D или OpenGL, это плюс одно, если физика рассчитывается, то можно тоже отдельным потоком, еще плюс один, если игровой мир квазисамостоятелен, то тоже отдельный движок. Это то что параллелится легко, поскольку это можно выделить в разные потоки.
Кроме игр есть еще научные расчеты, графика и много чего еще...

НТ нужен для упрощения работы большого числа потоков. Плюс в таком случае улучшается загрузка вычислительного конвейера, что и дает некоторый прирост производительности.

Конечно всем было бы замечательно если бы частота процов и дальше росла, и они оставались одноядерными, и производителю процов в том числе. Но вот не получается, существуют объективные причины, ограничивающие рост частоты.

ЗЫ Интересно, когда рост количества ядер станет бессмысленным, куда пойдет развитие процов?
 

Steeply

Skynet
зачем её тогда делать...
лишнее распараллеливание только гемор для производителя ПО
ixbt показывал уже, что большинство игр даже больше 2х ядер не видят и не используют, а тут 8 выходит
я отвечу проше.
Сначала делаеться железо, а под него уже пишется софт.

Есть конечно не которые компании которые сначала написали софт, а потом уже под него собрали железо. Но такие компании сами разрабатывают и софт и железо.
 

Timophey

Уже освоился
HT и несколько для других целей нужен.



Это сейчас не используют... А в перспективе? Или будем на "ленивых" программистов ориентироватся? Программисты подтянутся и будут использовать большее количество ядер. Многие возможности современных процов тоже не используются, например наборы инструкций SSE. Внедрение их использования происходит с большим запозданием, иначе сложно обеспечить совместимость с предыдущими поколениями процов.

Кроме того, существуют задачи которые неплохо параллелятся.
В играх как минимум игровой движок, графический движок, это уже можно в два потока, плюс в системе Direct3D или OpenGL, это плюс одно, если физика рассчитывается, то можно тоже отдельным потоком, еще плюс один, если игровой мир квазисамостоятелен, то тоже отдельный движок. Это то что параллелится легко, поскольку это можно выделить в разные потоки.
Кроме игр есть еще научные расчеты, графика и много чего еще...
какую ещё перспективу??? сколько лет уже многоядерники делают, а софт всё ещё не хочет их использовать
игровые движки это вообще другая песня. там работает gpu а он от рождения многоядерный...
у прог инженерного анализа чем больше ядер тем дороже лицензия! + при распараллеливании погрешности резко возрастают
 

ingWAR

Пользователь
какую ещё перспективу??? сколько лет уже многоядерники делают, а софт всё ещё не хочет их использовать
игровые движки это вообще другая песня. там работает gpu а он от рождения многоядерный...
у прог инженерного анализа чем больше ядер тем дороже лицензия! + при распараллеливании погрешности резко возрастают

i7 скоро буду щупать руками (завидуйте :lol: )

Дома стоит Q6600. Не смотря на то, что некоторые прожки не "видят" много ядер - работать от этого они медленнее не стали. Какое-то распараллеливание делается не софтом а непосредственно железом, так что приобретая большее количество ядер имеешь: минимум - свободные ресурсы, максимум - увеличение производительности в n-раз (где n - количество ядер).

Далеко не весь расчётно-аналитический софт привязывается на ядра по лицензиям. Вот разрабы RealFlow всё таки сделали это - за что им большой не респект. 3Д пакеты (May, LW, 3dmax, SI, и прочие) используют все ядра, какие есть на машине (опционально конечно). А на счёт погрешности - это Вы круто завернули :D если эта погрешность на столько влияет на расчёт - то эту прогу надо как минимум переписывать или просто выкинуть. Тем более контроль ошибок (или уж как там это называется? crc?) давно отработан и применяется.

Если на компе играться, смотреть видео да в инете лазать, то E7200 - лучше не придумать наверно.
 

Steeply

Skynet
максимум - увеличение производительности в n-раз (где n - количество ядер).
не совсем так. Даже в математическом идеале не так получается.
1. не все задачи одинаково паралелятся.
2. 2 процессора не означают производительность в 2раза большую. (Макс производ. при 2х проц режиме, будет 60-70%), а это не 2 раза больше.
3. При добавлении каждого нового процессора, производительность начинает расти медленней
Получается, что при при 1 процессоре производ = 100%
При 2x = 100+60%
При 3х = 100+60+40%
При 4x = 100+60+40+20 т.д.
Уже начиная с 6 процессоров, прирост производительности будет на столько мал при современных программных средствах и задачах, что увеличение числа процессоров ни даст абсолютно, ни какой разницы в показателях, либо разница будет на столько маленькой, что ее сочтут как погрешность.

На цифры не смотрите, они как пример, и не являются точными расчетами, а всего лишь показывают суть
 

Mek_ph

Активный пользователь
какую ещё перспективу??? сколько лет уже многоядерники делают, а софт всё ещё не хочет их использовать

Сколько?
Двухядерники нормально используются...
А наборы SSE много вы видели в использовании? Никто их не выкидывает, поскольку процессоры без этих инструкций уже массово не применяются, теперь и программы подтянутся.
Можно еще 64 битную адресацию вспомнить...

игровые движки это вообще другая песня. там работает gpu а он от рождения многоядерный...

Это какие игровые движки на гпу? Гпу только графика, да и то на конечном этапе, после того как ему все вводные подготовлены. К игровому движку гпу вообще отношения не имеет.

у прог инженерного анализа чем больше ядер тем дороже лицензия! + при распараллеливании погрешности резко возрастают

Откуда там погрешность растет? Что-то ни разу не замечал :lol:. Если статистика, то набирается она вдвое быстрее, если различные методы типа мкэ, мкр и подобные, то узлы быстрее обсчитываются. Откуда взятся погрешности при распараллеливании?

Лицензия была дороже, да и то для большого числа ядер. Тем более с учетом направления развития процессоров, эту практику корректируют.
 

Mek_ph

Активный пользователь
не совсем так. Даже в математическом идеале не так получается.
1. не все задачи одинаково паралелятся.
2. 2 процессора не означают производительность в 2раза большую. (Макс производ. при 2х проц режиме, будет 60-70%), а это не 2 раза больше.
3. При добавлении каждого нового процессора, производительность начинает расти медленней
Получается, что при при 1 процессоре производ = 100%
При 2x = 100+60%
При 3х = 100+60+40%
При 4x = 100+60+40+20 т.д.
Уже начиная с 6 процессоров, прирост производительности будет на столько мал при современных программных средствах и задачах, что увеличение числа процессоров ни даст абсолютно, ни какой разницы в показателях, либо разница будет на столько маленькой, что ее сочтут как погрешность.

На цифры не смотрите, они как пример, и не являются точными расчетами, а всего лишь показывают суть

Ну эти подсчеты бессмысленны без приложения к задаче. Набор статистики параллелится идеально, то есть в n(ядер) раз. Принципиально однопоточная задача не параллелится вообще. Все остальное существенно зависит от задачи. Пример с играми я уже приводил, в данном случае (игры) речь смысл не в увеличении производительности в n раз а том что каждый вычислительный поток получает отдельное ядро, а прирост производительности зависит от соотношения потребностей этих потоков, если оно одинаковое то и эффективность распараллеливания максимальна.

То есть в случае 8 ядер имеем 8-кратный прирост в монте-карло и аналогичных задачах (естественно в примерах рассматриваем программы, оптимизированные под многопоточность), в кодировании видео также имеем 8-кратный прирост (на каждое ядро можно и отдельные куски кодирования загонять) если позволяет дисковая подсистема :lol:, прирост в пакетах, в которых ресурсоемкие задачи можно выделить в отдельные потоки, получаем в соответсвии с разделением на эти потоки, в лучшем слуае также 8-кратный, в остальных задачах имеем какой-то прирост в соответствии с коррелированностью отдельных частей программы, в принципиально однопоточном приложении не получаем абсолютно никакого прироста.
 

Timophey

Уже освоился
Откуда там погрешность растет? Что-то ни разу не замечал :lol:. Если статистика, то набирается она вдвое быстрее, если различные методы типа мкэ, мкр и подобные, то узлы быстрее обсчитываются. Откуда взятся погрешности при распараллеливании?

Лицензия была дороже, да и то для большого числа ядер. Тем более с учетом направления развития процессоров, эту практику корректируют.
математическая операция даёт погрешность. когда CAE пакет распараллеливает он совершает эту операцию лишний раз, потом тоже самое происходит при "сшивании" результатов, которые посчитались на разных ядрах
если не принимать "меры", то результат решения одной и тойже задачи на 1, 2, 4 и 8 ядрах заметно отличается
в ansys вообще одно ядро занимается процессом распараллеливания...
 

Mek_ph

Активный пользователь
математическая операция даёт погрешность. когда CAE пакет распараллеливает он совершает эту операцию лишний раз, потом тоже самое происходит при "сшивании" результатов, которые посчитались на разных ядрах

Каким боком распараллеливание дает погрешность? Разные ядра считают одни и те же уравнения в разных частях модели, какя разница, делало бы это одно ядро последовательно либо несколько параллельно? Сшивка в любом случае одинакова. Операция разделения расчетов по ядрам не дает погрешности в самих расчетах.

если не принимать "меры", то результат решения одной и тойже задачи на 1, 2, 4 и 8 ядрах заметно отличается

Вы имеете в виду ошибки при распараллеливании, связанные с программированием? Тогда каким боком здесь расчеты?

в ansys вообще одно ядро занимается процессом распараллеливания...

В ансисе если ядра всего два, то они оба считают модель, просто разные ее части. Отдельное ядро выделяется при большом количестве ядер, ну это на настоящий момент к кластерам... Кстати, в ансисе не нужно особых ухищрений для того чтобы посчитать на многоядерной машине...
Если вы внимательно изучите природу погрешности в CAD расчетах, то поймете что она не связана с способом вычислений. С сеткой, моделью, расчетной моделью, не говоря уж о нелинейных элементах и свойствах, но не с процессором и математическими операциями. Округление в любом случае дает много меньшую погрешность (причем независящую от того на параллельных ядрах считается или нет) чем все перечисленные факторы.
 

Timophey

Уже освоился
Каким боком распараллеливание дает погрешность? Разные ядра считают одни и те же уравнения в разных частях модели, какя разница, делало бы это одно ядро последовательно либо несколько параллельно? Сшивка в любом случае одинакова. Операция разделения расчетов по ядрам не дает погрешности в самих расчетах.



Вы имеете в виду ошибки при распараллеливании, связанные с программированием? Тогда каким боком здесь расчеты?



В ансисе если ядра всего два, то они оба считают модель, просто разные ее части. Отдельное ядро выделяется при большом количестве ядер, ну это на настоящий момент к кластерам... Кстати, в ансисе не нужно особых ухищрений для того чтобы посчитать на многоядерной машине...
Если вы внимательно изучите природу погрешности в CAD расчетах, то поймете что она не связана с способом вычислений. С сеткой, моделью, расчетной моделью, не говоря уж о нелинейных элементах и свойствах, но не с процессором и математическими операциями. Округление в любом случае дает много меньшую погрешность (причем независящую от того на параллельных ядрах считается или нет) чем все перечисленные факторы.
кластер тут при чём - это вообще mpp система, речь о smp шла... :-/
кстати при некоторых видах работ расчётам на mpp системах вообще не доверяют
в ансисе _всегда_ одно ядро в минусе!! читаете мануал
и когда округляешь 2000 шагов счёта, то набегает ох как много и приходится использовать двойную точность
CAE расчёты намертво завязаны с железом, и на всех CAE конференциях львиная доля докладов посвященна исключительно распараллеливанию
 

Mek_ph

Активный пользователь
в ансисе _всегда_ одно ядро в минусе!! читаете мануал

"А вам молодой человек нужно поменьше по стране ездить а побольше газеты читать" (с) анекдот.

Гонял на двухядерном, время выполнения расчета сокращается практически в два раза, оба ядра загружены по полной. Задача требовательная именно к процу. При отвлечении одного ядра исключительно на распараллеливание оно бы практически простаивало, поскольку на одно оставшееся параллелить было бы нечего <_<.

и когда округляешь 2000 шагов счёта, то набегает ох как много и приходится использовать двойную точность
CAE расчёты намертво завязаны с железом, и на всех CAE конференциях львиная доля докладов посвященна исключительно распараллеливанию

Так никто не спорит что проблема распараллеливания сложная, но на точность непосредственно расчета она не влияет. Ошибки, которые могут возникнуть в данном случае, не имеют ничего общего с погрешностью, как собственно и другие ошибки связанные с программированием...
 
Сверху