Как собрать серверный компьютер


стоит ли ставить серверное железо в домашний ПК? / Kingston Technology corporate blog / Habr

Привет, Гиктаймс! Народное поверье гласит, что трава у соседа всегда зеленее, а компьютеры, которые для своих нужд закупают дотошные предприниматели, надёжнее и производительнее, чем сдобренные маркетингом модели в рознице. Целая каста энтузиастов охотится на серверные комплектующие и боготворит производительность железа корпоративного класса. Разбираемся, действительно ли крупные организации плещутся в «IT-раю», или же гики сотворили себе идола из ничего?


Нет преград энтузиастам, особенно если эти преграды воздвигнуты коварными маркетологами, которые поделили все электронные устройства на корпоративные и консьюмерские! Потому что даже в СМИ с рекламой о загадочном «пользовательском опыте» разработчики софта и железа проговариваются, мол, «камера этого смартфона обеспечивает профессиональное качество снимков!», да и другим образом штамп о профессионалах, которые ерундой не пользуются, эксплуатируют уже давно. И если уж искать пресловутую «профессиональную технику» и качество услуг, то лучше вопрошать железо и методы обслуживания корпоративного класса, верно?

Мотивы, которыми руководствуются неугомонные энтузиасты, лежат на поверхности — пусть консьюмерская техника и развивается бодрее за счёт аппетитов покупателей, «закаленные боями» комплектующие корпоративного класса явно будут надёжнее, а на вторичном рынке — ещё и дешевле. Играют же как-то гики на видеокартах для рабочих станций, собирают же могучие и «вечные» домашние ПК с серверной начинкой! Стало быть, есть смысл попытать счастья?

И толика этого самого смысла в подобное затее, разумеется, есть, но с приобретением корпоративных «атрибутов» под домашние условия можно «влипнуть» и, в лучшем случае, переплатить за невостребованную функциональность, а в худшем — уйти в минус в сравнении с вариантами, доступными для розничного покупателя. Разбираемся, в чём состоит подвох в использовании железа, разработанного для корпораций.

Серверный — тоже игровой. Intel Xeon в домашних ПК


Первое, что приверженцы технологий любят использовать из корпоративного сегмента — серверные процессоры. Не экзотические, а наиболее «понятные», то есть, на базе архитектуры x86. Удовольствие это не из дешёвых, поэтому «зеоноводы», условно говоря, включают в себя два лагеря с немного разными ориентирами в постройке ПК:


Xeon — изначально не для игр и «гонок» в бенчмарках, но иногда бывают полезны

Энтузиасты, нацеленные на High-End комплектующие. Это такой уровень, когда крупносерийных версий Intel Core i7 уже недостаёт, а при взгляде на платформу LGA-2011 (любого из поколений) на ум приходят мысли о том, что «суперзаряженные» Core i7 предлагают «те же яйца», только в меньшем количестве и без разгона.

Потому что, коль уж мы говорим о цене, случались в истории моменты, когда восьмиядерные Xeon оказывались эдак на треть дешевле и значительно «холоднее», чем 6-ядерные Core i7 Extreme Edition. Например, так было после дебюта чипов Intel Haswell-E в 2014 году — во-первых, что разница в цене между шестиядерным Core i7-5960X и «гражданским» четырёхъядерником i7-4790K составляла жалкие 15%. А во-вторых, младший серверный восьмиядерный Xeon E5-2609 v4 стоил примерно на 30% дешевле, чем кандидат из лагеря Haswell-E. При этом, в отличие от «просто» Core i7 в Xeon ниже уровень TDP и отсутствует бесполезная для энтузиастов интегрированная в процессор графика.

При этом кэша L3 во всех трёх моделях навалено тоннами, а частота, хоть ниже в Xeon, но убеждения «в работе ядра лишними не бывают» и «очень скоро игры оптимизируют таким образом, чтобы они работали быстро на 8 и более ядрах» не дают экономным любителям скорости покоя, после чего горячие парни отправляют младшие версии Xeon в чипсет Intel X99 и… никому не признаются, как обстоят дела в играх.

Потому четыре ядра, разбавленных с помощью Hyper-Threading, почти всегда оказываются эффективнее в играх, чем восемь низкочастотных «горшков» в Xeon, которые даже разогнать никак нельзя (заблокированный множитель, околонулевой разгон по шине).

«Кулибины», которые захотели модернизировать старую платформу при минимальных затратах. Например, приобрести взамен старого процессора Core 2 Duo не старый Quad, а гораздо более крутой и высокочастотный четырёхъядерный Xeon X5460, который с помощью нехитрого переходника можно установить не в серверную материнскую плату с Socket 771, а в «гражданскую» для Socket 775.

Главное в таком сценарии — озаботиться качественным охлаждением (серверные «камни» щеголяют TDP порядка 120 Вт взамен 95 Вт у стандартных четырёхъядерников), но в итоге такой вариант апгрейда с очень старой платформы до «терпимо старой» себя оправдывает, тем более, что на некоторых матплатах процессор можно разогнать аж до 4 ГГц.

И ведь у «Зионов» есть преимущества, которыми они компенсируют свою многоядерную нерасторопность в играх! Например, возможность городить мультипроцессорные конфигурации, с которыми кодирование видео/музыки/фото и CAD-моделирование происходит намного быстрее, чем в топовых Core i7 Extreme. Поддержка регистровой памяти с ECC, к примеру, позволяет исправлять ошибки «на лету», а это пригождается при большом аптайме (сервер же!). Поддержка «конских» объёмов ОЗУ и огромное количество ядер тоже придутся ко двору, когда серверу нужно обработать входящие соединения максимально быстро. Но всё это почти бесполезно в домашнем ПК.

А полезно для него — много ядер на высокой частоте. Если эти условия соблюдены, сам процессор совместим с платформами LGA 2011 или LGA 2011-3 и обходится дешевле, чем «просто» Core i7 — смысл в его приобретении есть. В противном случае лучше либо обойтись массовыми четырёхъядерниками о восьми потоках, либо конструировать рабочую станцию под конкретные сценарии использования (рендеринг, кодирование).


Высокочастотные Intel Xeon (если они дешевле мейнстрим CPU) могут стать хорошим подспорьем не только в работе, но и в играх (источник: ferra.ru)

Косите фраги на рабочей станции с хакнутыми драйверами NVIDIA


Если с использованием серверного процессора можно играть скорее вопреки, чем благодаря установленному железу, то графика, которую должно использовать для видеомоделирования или проектирования, исторически была крутой в игровых дисциплинах. В противостоянии AMD и NVIDIA даже сценарии «нецелевого использования» видеоускорителей всегда были разными: «красные» геймерские видеокарты ещё недавно были нарасхват у майнеров, а NVIDIA Quadro, так уж исторически, уговаривали переквалифицироваться в игровую видеокарту.


Профессиональные видеокарты NVIDIA Quadro значительно производительнее своих игровых сородичей

Причём Quadro для этих целей вполне подходит — дело в том, что игровые GeForce чаще всего представляют собой профессиональную видеокарту с частично отключенными конвейерами графического процессора (от маркетинговых соображений до отбраковки чипа) по более доступной цене. Например, новая профессиональная видеокарта Quadro P6000 содержит наиболее «полную» версию графического чипа GP102 и по этой причине обходит в производительности крутую геймерскую GeForce 1080 почти на 20%, да и могучий Titan X на базе всё той же архитектуры Pascal неизменно оставляет позади.

А вообще, среди поклонников видеокарт NVIDIA уже давно образовался фирменный спорт — приблизить с помощью аппаратной модификации GeForce к Quadro (например, GTX 680 в аналог Quadro K5000 по производительности), а любители игр, напротив, скрещивают ежа с ужом, «ковыряют» драйверы и заставляют профессиональные видеокарты работать быстрее в пострелушках/покатушках/бродилках. «Играть как задумано» такая деятельность не позволяет, но настырности энтузиастов можно только позавидовать.

В мобильных рабочих станцией почти у каждой видеокарты NVIDIA Quadro наблюдается забавная закономерность: всякий мобильный видеоускоритель NVIDIA Quadro равен игровой [1] GeForce классом ниже в геймерских задачах и на пару уровней более крутой игровой [1 + 2] GeForce в дисциплинах CAD.


Производительность мобильных NVIDIA Quadro в сравнении с аналогами GeForce (источник: msi.com)

Например, Quadro M2000M в играх показывает себя на уровне GeForce GTX 960M, но как только дело доходит до моделирования, «подпрыгивает» в результатах до GeForce GTX 980M. Примерно такое же соотношение справедливо и в случае с другими моделями Квадро: M5000M соревнуется с GTX 980M в играх, а M1000M соперничает с 950M в играх.


NVIDIA Quadro M6000 в сравнении с самыми быстрыми игровыми видеокартами
(источник: techgage.com

Детям мороженное, даме — цветы: приоритеты в корпоративной памяти и накопителях


Серверная оперативная память не совместима с материнскими платами в домашних ПК не потому, что кто-то так решил «назло» конечным покупателям. Просто серверная ОЗУ устроена чуть иначе — она содержит регистр между микросхемами и системным контроллером памяти для того, чтобы снизить электрическую нагрузку на контроллер и иметь возможность установить больше модулей в одном канале памяти.

Иными словами, дополнительные микросхемы и умение автоматически распознавать и исправлять ошибки очень повышает отказоустойчивость такого типа памяти, но и увеличивает её стоимость. Словом, не удивляйтесь, если обнаружите, что даже низкочастотные (по меркам стандарта DDR4) модули окажутся на 50% и более дороже, чем их «бытовые» аналоги — бесчеловечные требования в выносливости в круглосуточно включенных системах заметно видоизменили серверную ОЗУ. В повседневном использовании она не будет ни быстрее, ни эффективнее «гражданских» аналогов, поэтому за высокой производительностью стоит обращаться к геймерским комплектам — например, HyperX Savage, если вам нужна удобная в разгоне память для геймеров, и HyperX Predator, если хочется выжать из подсистемы ОЗУ максимум. Для штатных частот замечательно подходит бюджетный Kingston ValueRAM — надёжный, один раз установил и забыл.


Серверный процессор в домашнем ПК может пригодиться, а вот вместо регистровой памяти лучше приобрести стандартный комплект DDR3/DDR4

SSD корпоративного класса тоже претерпели «тюнинг» в сторону надёжности — в них, к примеру, есть возможность гибко управлять резервным объёмом под нужды контроллера. Чем больше объём — тем ниже износ ячеек и выше долговечность накопителя. И огромное количество алгоритмов, эффективных в тяжёлых условиях работы, особенно по части сохранности данных на случай, если накопитель выключится в аварийном режиме. Перенастроенная на минимальную задержку в режиме многопользовательского доступа прошивка и борьба за стабильную производительность даже при внештатно большом объёме операций записи и чтения. Такую нагрузку домашний компьютер не переживает, даже если «пытать» SSD торрентами. С другой стороны, рекордсменами в типовых операциях промышленные SSD тоже не являются — типовые SATA-накопители быстрее устареют «морально», с точки зрения объёма памяти, чем полностью исчерпают количество доступных для ячеек циклов перезаписи — проверенно длительным сравнительным тестом с участием моделей HyperX. А рекорды скорости при таком же уровне надёжности уже давно перешли к накопителям на базе интерфейса NVMe, которые реализованы в одном из новомодных форм-факторов «поверх» PCI-Express. В модельной линейке Kingston/HyperX «царём горы» был и остаётся Predator SSD PCI-E.


Выигрыш в долговечности при покупке SSD корпоративного класса не сравнится с радостью от быстродействия геймерского PCI-e накопителя

Если нельзя, но очень хочется — то можно


Железо корпоративного класса не настолько отличается от «гражданских» аналогов, чтобы признать его непригодным к работе в качестве домашнего ПК, просто всегда нужно исходить из того, стоит ли овчинка выделки. Потому что ситуация обстоит следующим образом:

• Покупать платформу, в которой используется регистровая память с коррекцией ошибок (ECC) для дома — плохая идея. Избыток долговечности не компенсирует дорогостоящие комплектующие и средний (в сравнении с геймерскими аналогами) уровень производительности не будут радовать, тем более, что и цены на серверную память заметно выше, чем на среднестатистический модуль DDR3/DDR4.

• Накопители корпоративного класса в домашнем компьютере нужны, если вы параноик, экстремально тревожитесь о сохранности данных в случае перебоев с электроэнергией и переживаете касательно надёжности современных SSD вообще. Накопители, ориентированные на организации, позволят вам «выкрутить на максимум» показатели надёжности, чтобы душа была спокойной.

• Серверный процессор для игр… любопытная и достаточно эффективная идея, но только лишь в том случае, когда речь идёт о более дешёвой (в сравнении с мейнстрим-аналогами) и, что главное, высокочастотной модели. Либо об апгрейде старого компьютера на серверный CPU «малой кровью», то есть, почти за бесценок. И да, в идеале платформа должна быть позаимствована у «обычной» Extreme-серии массовых процессоров.

• Профессиональные видеокарты отлично справляются не только с моделированием, но и с играми. Но следует помнить, что в мобильных рабочих станциях (с «задушенным» TDP) профессиональный видеоускоритель среднего класса сможет конкурировать в геймерских дисциплинах только с игровыми видеокартами бюджетного класса. А десктопные профессиональные видеокарты, в свою очередь, хоть и быстрые во всех сценариях работы, стоят заградительно дорого, и уж точно не годятся на роль эконом-варианта для «поработать и поиграть».

Как бы то ни было, на качественной и быстрой оперативной памяти экономить нельзя… Но сегодня — можно! Напоминаем, что с 2 по 20 февраля на все комплекты памяти HyperX Savage DDR4 и HyperX Predator DDR4 в Юлмарте действует скидка 10% по промокоду DDR4FEB. Памяти много не бывает, а производительной и крутой памяти для новых платформ ПК — тем более!



Для получения дополнительной информации о продукции Kingston и HyperX обращайтесь на официальный сайт компании. В выборе своего комплекта HyperX поможет страничка с наглядным пособием.

habr.com

Домашний сервер для работы и не только. Организация рабочего места ленивого инженера

Однажды став тем или иным специалистом в сфере IT, каждый из нас начинает окружать себя всевозможными инструментами для работы и отдыха. Далее это перерастает в целый комплекс мероприятий по поддержанию привычек, установленного расписания дня, комфортных условий труда и отдыха. Не претендуя на какую-либо уникальность, все же хотелось поделиться организацией «рабочего» процесса и отдыха ленивого администратора, как результатом знакомства с разными сферами IT, близкими к основной деятельности.

Вспоминая слова одного преподавателя вуза: «Кто такой инженер? Это же лентяй! Вот он лежит на диване, смотрит телевзор. И захотелось ему переключить канал — но вставать то лень! „Ай, ну его, каналы вставать переключать — пойду-ка разработаю пульт дистанционного управления...“. Всегда хотелось сделать что-то интересное и максимально это автоматизировать…

Итак, исходные данные:

0. Работа удаленным инженером-администратором. Поддержка парка серверов/сервисов по части software и hardware.
1. Место дислокации — загородный дом.
2. Гигабитный интернет с резервированием (Просто всегда был рад помочь местным сете-строителям с настройкой и сборкой серверов.)
3. Отностительно надежная инфраструктура — водо-, газо-, электроснабжение.
4. Желание тишины и спокойствия автоматизации для комфортной работы и быта.

Задачи:
1. Удобная организация рабочего места с возможностью оперативного мониторинга.
2. Необходимая функциональность в свете безопасности, быстродействия и широкого спектра задач.
3. Энергоэффективность.
4. Изоляция рабочей среды от потенциальных угроз.

Сначала все и вся было уделом одного обычного ПК средней конфигурации — здесь и работа, и развлечения и веб-сервер. Круглосуточная работа, особенно в жилой комнате ну никак не устраивала ни меня, ни домочадцев. Появилось желание сделать все „раз и надолго“. Были испробованы множество вариантов — несколько ПК для разных задач в разных местах, Remote Desktop к рабочему ноутбуку, во избежание всевозможных переустановок, проблем привязки к оборудованию или операционной системе. Но однажды попробовав поиграться с одной из систем виртуализации, понял — это то что решило бы сразу много проблем. Это случилось как раз во время, когда в ESXi было упразднено множество ограничений в бесплатной версии, да так что теперь гипервизор годился прямо в мини-продакшн, для дома это уже была пушка по воробьям Отлично, начнем-с.

Первые грабли не заставили себя ждать. При переносе штатным инструментом (VMware vCenter Converter Standalone Client) ОС Windows 7 из доживающего свое винчестера ноутбука конечно же был словлен блускрин. Решение — загрузочный диск с любым редактором реестра, активация необходимых драйверов путем правки нужных значений (вариант решения).

Как же было приятно потом „лечить“ и украшать медленную 5-летнюю систему! Был произведен перенос всего медиаконтента, „не очень нужных“ программ, система сжата с 500 до 50 гигабайт. Все было чудесно, но, конечно сразу же захотелось „побыстрее“. Здесь начались размышления по поводу, собственно, серверной части. Было решено построить систему с запасом, максимально использовав комплектующие, которые уже были. Основное требование — бесшумность и производительность.

Итак, корпус — был вот такой: INPC DL36 — прочный, просторный корпус, который отлично подходил под все требования — полноценный размер материнской платы, 3U высота для использования полноценных радиаторов и бесшумного блока питания.

Конфигурация оборудования:

  • Материнская плата Tyan S7012. 2xLGA1366, 4 сетевых интерфейса, встроенный IPMI, цена на ebay на момент покупки — $130
  • Процессор 1 х Intel Xeon L5630. 4x2.13GHz, TDP 40W. Второй пока лежит без дела, хотя, как показали измерения, практически не повлиял на снижение средней потребляемой мощности (-10Вт). Цена 1шт. на момент покупки — $50 (ebay)
  • Контроллер LSI 9261-8i. Минимально необходимый для полноценного использования SSD. Замеры iops внутри виртуальных машин это подтверждают. Цена на момент покупки $150 (ebay).
  • Дисковая подсистема Здесь немного понервничал и все же раскошелился. RAID1 на базе 2 x Intel SSD DC S3500 Series (240GB, 2.5in SATA 6Gb/s, 20nm, MLC) + OCZ Deneva 2 480 GB для второстепенных задач, тем не менее требующих быстрой дисковой системы. HDD оказались просто не нужны, к тому же они были бы самым шумным элементом системы! Замер IOPS оказался в „пределах погрешности“ относительно теста производительности RAID при непосредственном подключении, без какой-либо виртуализации.
  • Блок питания Chieftec Smart GPS-500C. Он просто бесшумен. Никакого писка дросселей, никаких шумов, абсолютно.
  • Оперативная память В текущей конфигурации это 3х8Gb — вполне достаточно для текущих задач и неплохой запас на будущее, чтобы лишний раз не выключать сервер.
  • Охлаждение Штатные вентиляторы были выкручены, на продув корпуса установлены Noctua NF-S12A PWM. Основной проблемой конечно же стало охлаждение процессоров. Было решено использовать штатный радиатор Intel STS100C (Cu+Al) вместе с регулируемым вентилятором (штатный даже на минимальных для запуска оборотах был очень шумным). Экспериментальным путем был подобран San Ace 80, регулировка осуществляется с помощью популярного step-down модуля на базе LM2596S. Путем подстройки напряжения получилось добиться скорости 500-700 оборотов, это практически бесшумная работа. Такой режим не допускает перегрева даже жарким летом, все показания датчиков в пределах нормы.

В планах переход на полностью пассивное охлаждение CPU.

Вот как это выглядит на данном этапе:

Вид спереди, диски можно менять не выключая сервер:

Попутно был развеян миф о потребности регулярной перезагрузки Windows:

Итак, сервер собран, далее приступим к повышению надежности в доступных нам пределах. Мною было продумано множество вариантов бесперебойного электропитания дома в целом, и сервера, в частности. От выделенного ИБП с минимально необходимой мощностью для питания сервера и базовых сетевых устройств до полного резервирования всего дома трехфазным ИБП. В итоге проб и ошибок был выбран все же самый адекватный вариант — ИБП средней мощности с запасом для питания критических устройств в течение хотя-бы 12 часов. Таковыми являются газовый котел, собственно, сервер, коммутатор провайдера, роутер, внутренние коммутаторы, видеокамеры, автоматические ворота, дежурное 12В освещение, аварийные розетки в доме и подсобном помещении. Добавление следующего по важности устройства — чайника, насосной станции очень сильно повышает требования к ИБП, поэтому в случае надобности аварийное снабжение переводится на бензиновый генератор. В качестве источника бесперебойного питания применен APC Smart-UPS 1500, в крайнем случае — достаточный для пуска 0.75кВт насосной станции. Аккумуляторный блок собран из 2х120А*ч батарей.

Потребление резервируемых устройств в штатном режиме:

Организация сети. В который раз пришлось на своем опыте убедиться в законе — если по плану необходимо проложить два кабеля — надо закладывать четыре! Даже без систем умного дома. После разнообразных перестановок была применена следующая схема. Для моей реализации сети идеальным роутером оказался, конечно же, MikroTik. Абсолютно все необходимые функции за минимальную стоимость, с минимальным энергопотреблением. Простая настройка локальной сети, безопасности доступа извне, резервирования каналов связи, дополнительных сервисов — устройство класса „один раз разобрался, настроил и забыл“. Функция резервной маломощной точки доступа Wi-Fi, потому как качественная раздача не является основной задачей подобных устройств. В роли главной точки беспроводного доступа был заказан небезызвестный Ruckus — поставил и забыл, проблемы с Wi-Fi прекратились раз и навсегда.

Два аплинка от провайдеров проверяются на доступность по приоритету (distance) — в случае проблем с приоритетным провайдером автоматически происходит переключение на резерв. Решение простое, не самое надежное, но, как правило, достаточное при типичных проблемах сетей в частном секторе — обрывы кабелей/отсутствие электропитания.

Далее хотелось бы рассказать, зачем же это все, собственно, затевалось и какой получился результат. Для каждой группы задач была установлена отдельная виртуальная машина, а именно:

1. Основная рабочая система на базе Windows 7, та самая, с трудом и заботой перенесенная со славно поработавшего ноутбука.
2. Отдельная система для ведения финансового учета и проведения переводов — так же, впрочем, перенесенная с нетбука.
3. ОС с софтом для видеонаблюдения. Хотя полностью независимые системы и имеют свои преимущества — но полугодовой опыт использования виртуальной машины для этих целей показал отличную надежность такого решения. Видеонаблюдение было построено на базе камер Hikvision и бесплатного софт-сервера от этого же производителя.
4. Сетевое хранилище для медиаконтента (FreeNAS) — в основном для удобного обмена файлами между устройствами внутри локальной сети и просмотра на фото/видео на телевизоре.
5. Unix сервер, Debian/Ubuntu, без GUI. Как же без простой, безотказной системы под рукой — собрать статистику и вывести показания датчиков на веб-сервер, перекодировать видео с помощью ffmpeg, протестировать скрипты, и т.д.
6. Бонусы — однажды в экстренной ситуации пришлось даже спасать крупный сайт, вытаскивая контент из проблемного рейда, на лету завернув его в виртуальную машину и переместив на временный сервер.

Для взаимодействия с виртуальной средой установлен ПК с 23'' монитором, на котором есть относительно мощная видеокарта для видео/игр, подключение к машинам происходит по RDP либо SSH. Если уж совсем лениво — то с ноутбука, лежа на диване.

После всех настроек, проб и ошибок, наконец-то можно сказать что все работает, как и было запланировано! Казалось бы, стольким мелочам было уделено внимание — но в сумме это дало очень много выигранного времени и средств, а именно на включения, выключения, замены, контроль всего потенциального парка домашних устройств.Теперь можно больше сконцентрироваться на основной деятельности, не переживая об отключениях электричества, падающих, забытых, украденных ноутбуках, посыпавшихся жестких дисках и прочих сюрпризах. Надеюсь что мой опыт будет интересен и, возможно, кого-то так же мотивирует применить свои профессиональные знания для обустройства рабочего места на дому!

habr.com

Как собрать хороший сервер своими руками с нуля / Железо

Сетевые технологии совершенствуются с каждым годом, и перед многими пользователями встает вопрос о расширении своей сети и внедрения в нее серверов, делающую локальную сеть более производительной и более удобной для использования. Для домашней сети или сети небольшого предприятия покупка специализированного серверного оборудования не самое разумное решение. Оптимальным в финансовом аспекте задачи способом решения данной проблемы будет являться сборка сервера своими руками. Как собрать свой собственный сервер мы и поговорим в этой статье.

На этапе проектирования сервера стоит задуматься о задачах, которые он будет выполнять. Какие же типы серверов существуют? К основным типам можно отнести файловые серверы, серверы баз данных, почтовые серверы, серверы печати, FTP или WEB серверы. В большинстве случаев, для маленькой корпоративной сети или ее сегмента сервер будет выступать в качестве контроллера домена или рабочей группы. По сути, эти типы серверов являются собирательными и несут в себе возможности как по хранению файлов и/или баз данных, так и функции по работе с почтовыми отправлениями, а также по управлению очередью печати сетевого принтера. Нужно отметить, что сборка сервера ничем не отличается от сборки персонального компьютера. Пользователям, знакомым с железом, не составит труда собрать и основу сервера. Отличия же серверов одного от другого, в основном, состоят в наборе программного обеспечения.

Не смотря на то, что аппаратная комплектация сервера мало отличается от комплектности рабочей станции, имеются и свои нюансы. Вследствие того, что на сервер ложится нагрузка по обработке данных большого количества пользователей, конфигурация сервера должна быть более производительной в сравнении с обычным десктопом. 

Платформа должна быть максимально производительной. Из процессоров следует выбирать специализированные серверные версии, обладающие высокой скоростью обработки данных. Стоит обратить свой взгляд и на многопроцессорные системы. Оперативной памяти тоже должно быть достаточное количество, чтобы не затруднять работу всей системы. Объем ОЗУ должен быть не менее 8-16 Гб. 

Также нужно уделить особое внимание дисковой подсистеме. Необходима установка максимально производительных жестких дисков, а также объединение их в RAID массивы с чередованием, а в случае с файловыми серверами и серверами баз данных еще и с зеркалированием для обеспечения сохранности файлов в случае сбоя. Жесткие диски следует выбирать с интерфейсами SATA или SAS, обеспечивающие высокую пропускную способность до 6 Гбит/сек.

Сетевой адаптер должен иметь достаточную пропускную способность, чтобы не вызывать задержек при обращении к серверу нескольких пользователей одновременно. В некоторых случаях, если, к примеру, сервер используется в качестве шлюза, необходимо установить не один, а 2 сетевых адаптера.

А вот на видеоподсистеме можно очень сильно сэкономить. Так как серверы не выполняют работы по обработке графики, а многие из них вообще не имеют мониторов и управляются удаленно, либо работают в консольном режиме, мощная видеокарта не требуется. Вполне будет достаточно самой простой дискретной или интегрированной видеокарты.

Выбор же программного обеспечения сервера определяется возложенными на него задачами, а также квалификацией обслуживающего персонала. Для домашней сети или сети небольшой организации вполне будет достаточно сетевой версии операционной системы Windows. Для более сложных задач и более квалифицированного обслуживающего персонала, следует присмотреться к POSIX системам, таким как Linux, xBSD и прочим. Данные системы имеют более высокие показатели безопасности и позволяют более тонко настроить сервер, адаптировав его именно под свои задачи.

firstpc.ru

Как лучше организовать сервер для 1с? — Хабр Q&A

Для 6-ти человек хватит и половины указанной конфигурации(если они, конечно, не разработчики).

> Что лучше выбрать в качестве сервера? Обычный пк или сервер?
Серверное железо надёжнее и производительнее, но и дороже. Если есть средства - лучше, конечно, на нём организовывать - но стоит ли покупать компьютер за несколько килобаксов только для развёртывания 1С для нескольких бухгалтеров, которые раз в месяц будут обеспечивать пиковую нагрузку, а в остальное время неспешно отправлять платёжки?

> Можно ли купить обычный компьютер и установить на него Microsoft server 2012?
Безусловно, и серверная ось вовсе не обязательна.

> Ubuntu шеф не хочет даже рассматривать.
Целиком его поддерживаю(я не ubuntu-фоб, но не стоит пихать десктопную ось куда ни попадя, и навешивать на неё лишние функции). Для никсового сервера - Debian, FreeBSD. Кому скучно - Gentoo или Ubuntu.

> Насколько оправдана покупка, например, такого сервера?
(не лучший готовый вариант, т.к. один жесткий диск, следовательно невозможно организовать raid 1)
Снова вопрос - эту конфигурацию хоть на 10% загрузят? Основная нагрузка будет раз в месяц и в основном на проц/оперативку.

> Что нужно еще устанавливать на сервер для корректной работы 1с?
Ничего лишнего, это трата ресурсов. Главное - Сеть. Первым делом проверить, чтобы линк был гигабитным - иначе никакое железо не спасёт. Никаких хабов или свитчей-соток. Прозвонить и переобжать витую.

> Как лучше организовывать бэкапы?
SQLAndFtp - достаточно.

> Нужен ли для этого еще один сервер или можно обойтись, например, компьютером бухгалтера?
Неужели нет отдельного сервера - файлопомойки с самбой и массивом для "особо важного"? В любом случае, хранение бэкапов на одном диске с бухгалтерскими "игрушками" или другими сервисами - зло(хранить бэкапы на одном диске с базой - вообще бессмысленно) - всего один запуск vault - и можно идти в аптеку: за корвалолом для директора/буха и вазелином для себя. Два "красных" двухтерабайтника от двухбуквенного производителя на данный момент обойдутся примерно в 14к деревянных - но спокойствие дороже. Кстати, не будет лишним арендовать VPS или облако за пределами РФ и периодически закидывать туда запароленные архивчики. Помимо этого, сервер пригодится и для других целей...

> Также помимо бухгалтера планируется работа с 1с еще нескольких сотрудников (до 6 человек, включая бухгалтера).
Не страшно.

> Все сотрудники будут находится в пределах одной сети и одного офиса.
Ну, значит, VPN не потребуется :) Не забудьте настроить файрвол.

qna.habr.com

Как из старого компьютера сделать домашний сервер? — Хабр Q&A

Исходя из своего опыта и целого семейства домашних серверов (3шт)
Как сделать на linux статический ip? На виндовс я читал как, а вот про линукс не нашел ничего толкового.

Через interfaces выше уже описали как, но лично моё мнение, этого делать не нужно, достаточно прописать на маршрутизаторе по MAC адресу.
Так же не рекомендовал бы поднимать на нём DHCP сервер, так как в процессе экспериментов вы всё равно его грохните и пока будете восстанавливать будете сидеть без сети или перенастраивать маршрутизатор.
Что будет если у сервера будет динамический ip?

Прежде чем к нему подключиться будете вычислять его IP :) Да и потом, если у вас будет Samba например, как вы настроите автоматическое монтирование на настольном компьютере ну и все сопутствующие проблемы.
После того, как сервер будет готов. Смогу ли я создавать на нем сайт, с разными ip? То есть понятно, сайт поставить на него могу, а вот, что бы у каждого сайта был разный ip?

Нет. Один интерфейс-один IP. Ставьте вторую карту, но в любом случае, это будет работать только для локальной сети, так как провайдер, по умолчанию, вам предоставляет только один IP адрес, кроме того, если IP провайдера динамический или серый, придётся использовать DynDNS или что-то такое для доступа из интернет.
Что бы вы еще посоветовали учитывать при настройки сервера?

Советовал бы сначала, чётко для себя обрисовать назначение сервера, продумать всё, что вы хотите от него добиться, затем потренироваться в виртуальной машине. Иначе вы просто будете постоянно его "убивать", так как, насколько я понимаю, опыта вы не имеете.
Это подучается целый выделенный сервер?

Типа того, только вот производительность будет совсем не серверное, если у вас конечно-же железо не серверное, но для дома пойдёт.

qna.habr.com

как уменьшить количество микросхем до шести / VDSina.ru — хостинг серверов corporate blog / Habr


Сочетание старого трюка с кодированием цветов в NTSC и современного железа позволяет собрать на удивление работоспособную машину

В 8-битных системах есть что-то перманентно притягательное: вы можете собрать автономную систему, достаточно мощную, чтобы поддерживать адекватное взаимодействие с пользователем, но достаточно простую, чтобы собрать и запрограммировать её самостоятельно. Большинство современных 8-битных машин, созданных любителями, завязаны на классических процессорах, которые жили в золотой век домашних компьютеров 1980-х годов, когда в качестве дисплеев использовали миллионы телевизоров. Вначале была идея собрать свою машину на базе процессора Motorola 6809 из той же эпохи. Я пытался использовать как можно меньше микросхем, но несмотря на мои старания, мне всё ещё нужно было 13 дополнительных микросхем для работы с ОЗУ и последовательной передачи данных. Тогда я задумался: а что, если я использую более современный 8-битный процессор? Насколько сильно при этом я смогу снизить количество необходимых мне микросхем?

В результате я собрал на нём машину, которая получила название Amethyst. Как любой домашний компьютер, он имеет встроенную клавиатуру и может выдавать аудио и видео. Он также имеет встроенный язык программирования высокого уровня, чтобы пользователи могли писать на нем собственные программы. Мне удалось сократить количество микросхем до шести: ATMEGA1284P CPU, USB-интерфейс и четыре простые интегральные схемы.

ATMEGA1284P (или 1284P) 2008 года выпуска имеет 128 килобайт флеш-памяти и 16 килобайт ОЗУ. Он может работать с частотой до 20 мегагерц. У него на борту есть встроенные контроллеры последовательного интерфейса и 32 цифровых входа / выхода.

Благодаря встроенной памяти и последовательным интерфейсам пропала необходимость в использовании многих вспомогательных чипов. Я мог напрямую генерировать аудио, прерывая и подавая сигнал на ввод / вывод с разной частотой. Таким образом я научился выдавать тон, который, правда, обладал характерной резкостью прямоугольной волны. Но как насчёт генерации аналогового видеосигнала? Неужели для этого потребуется специальное оборудование?

Стандартный трюк


В конце 2018 года я увидел трюк, который Стив Возняк использовал в 1970-х годах, чтобы реализовать в Apple II поддержку цветной графики. В США этот трюк применялся для цветного телевещания в системе NTSC ещё в 1950-х годах.

Изначально американское телевидение было только чёрно-белым и использовало довольно простой стандарт NTSC (разработанный Национальным комитетом по телевизионным системам). Для формирования изображения на экране электронный луч прорисовывал точки на его поверхности, ряд за рядом. Амплитуда принимаемого видеосигнала определяла яркость луча в любом заданном месте вдоль ряда. Затем в 1953 году NTSC был модернизирован для поддержки цветного телевидения, с сохранением совместимости с существующими чёрно-белыми телевизорами.

Инженеры решили представить информацию о цвете в виде высокочастотного синусоидального сигнала. Для этого поднесущая разделялась на два компонента с фазовым сдвигом 90°, каждая из которых подвергалась модуляции. В результате получался сигнал, модулированный и по амплитуде, и по фазе. Амплитуда сигнала определяла насколько ярким должен быть цвет. Этот высокочастотный сигнал цветности затем добавлялся к низкочастотному сигналу яркости для создания так называемого композитного видеосигнала. Такой метод до сих пор применяется для многих телевизоров и более дешевых дисплеев.

«Цифровой аналог»: аналоговый композитный цветной видеосигнал, используемый американскими телевизорами [вверху слева], совместим с чёрно-белыми ТВ, поскольку сигнал яркости маскирует высокочастотный синусоидальный сигнал цветности [пунктирная линия]. Фильтрующие контуры разбивают сигнал внутри телевизора. При достаточно высокой скорости передачи битов цифровой сигнал [внизу слева] будет восприниматься так, как если бы он был аналоговым сигналом: разные битовые комбинации дают разные цвета. В этом примере с двумя битами на пиксель можно получить шесть цветов [показано четыре], но более высокая скорость передачи битов позволяет использовать больше цветов.

Чёрно-белый телевизор воспринимает сигнал цветности как шум и игнорирует его. Но цветной телевизор может отделить сигнал цветности от сигнала яркости с помощью фильтрующих контуров.

В 1970-х годах инженеры поняли, что эта схема фильтрации может быть очень полезна для домашних компьютеров, поскольку она позволяет цифровому прямоугольному сигналу имитировать большую часть композитного аналогового сигнала. Поток нулей, отправленный компьютером на телевизор будет воспринят как постоянное низкочастотное аналоговое напряжение, то есть, чёрный цвет. Поток единиц будет рассматриваться как постоянное высокочастотное напряжение, то есть белый цвет. Но при достаточно высокой скорости передачи битов возникнут более сложные двоичные структуры, которые схемы высокочастотной фильтрации распознают как сигналы цветности. Этот трюк позволил Apple II отображать до 16 цветов.

Сначала я подумал, что нужно очень быстро переключать пин ввода / вывода, чтобы напрямую генерировать видеосигнал. Однако вскоре я понял, что с моим 1284P, работающим на тактовой частоте 14,318 МГц, я не смог бы переключать его достаточно быстро, чтобы отобразить более четырех цветов. Дело в том, что его встроенным последовательным интерфейсам потребовалось бы два тактовых цикла для отправки одного бита, что ограничило бы мою тактовую частоту до 7.159 МГц. Apple II для подключения своей внешней микросхемы к видеовыходу использовал быстрый прямой доступ к памяти, в то время как его ЦП был занят внутренней обработкой. Но, поскольку оперативная память моего компьютера интегрирована в микросхему, я не мог использовать этот подход.

Поэтому я заглянул в свои ящики и вытащил четыре микросхемы серии 7400 — два мультиплексора и два параллельно-последовательных сдвиговых регистра. Я смог параллельно установить восемь выводов 1284P и отправлять с них данные одновременно в мультиплексоры и регистры сдвига, которые преобразуют их в высокоскоростной последовательный поток битов. Таким образом, я научился генерировать биты достаточно быстро, чтобы отображать на экране около 215 различных цветов. Однако мне пришлось заплатить за это своей вычислительной мощностью: обработка видеосигнала постоянно съедает 75% ресурсов процессора.

Компактный компьютер


Amethyst — это одноплатный компьютер. Он собран всего из шести интегральных микросхем — процессор, USB-интерфейс и четыре микросхемы серии 7400, которые служат для создания 215-цветного изображения. Клавишные переключатели припаяны непосредственно к плате, которая также поддерживает аудио и четыре последовательных соединения ввода / вывода для периферийных устройств, таких как игровые контроллеры и устройства хранения данных. Писать программы и запускать их можно благодаря встроенной виртуальной машине Forth.

Мне нужна была легковесная среда программирования для пользователей, что и заставило меня выбрать Forth вместо традиционного Basic. Forth — это старый язык программирования для встраиваемых систем, он поддерживает интерактивность и способен эффективно компилировать код. С ним вы можете сделать достаточно много, используя минимальное количество ресурсов. Поскольку 1284P не позволяет выполнять скомпилированный машинный код непосредственно из его ОЗУ, пользовательский код вместо этого компилируется в промежуточный байт-код. Этот байт-код затем подаётся в качестве входных данных на виртуальную машину, запущенную из флэш-памяти 1284P. Код виртуальной машины был написан на ассемблере и оптимизирован вручную, чтобы сделать его максимально быстрым.

Как инженер, работающий в компании, которая производит лазерные 3D-принтеры, я имею доступ к передовым станкам для лазерной резки. Так что я легко спроектировал и изготовил деревянный корпус (подсмотрел отделку под дерево у Atari 2600). Механические переключатели клавиатуры были припаяны непосредственно к одиночной печатной плате Amethyst. У этой клавиатуры есть одна любопытная особенность — отсутствие привычного всем большого пробела. Вместо него — просто кнопка, скромно расположившаяся над клавишей Enter.

Полная схема, PCB-файлы печатной платы и исходный код доступны в моем репозитории на GitHub. Так что вы можете создать свой собственный Amethyst или даже улучшить мой проект. А вдруг вы сможете придумать, как сэкономить ещё парочку микросхем?

habr.com

Как выбрать сервер для 1С, SQL и терминалов / Сервер Молл corporate blog / Habr

Наверное, каждому сисадмину хоть раз в жизни приходилось решать задачи внедрения продуктов 1С, развёртывания SQL-баз и создания терминальных серверов. К нам регулярно обращаются заказчики с просьбой подобрать сервер под какую-нибудь из этих задач, а то и под все сразу. Здесь есть три возможных подхода, и мы хотим поделиться своим опытом в подборе оборудования, возможно, кому-то он сильно облегчит жизнь.

Основным критерием при выборе серверов для организации является набор сервисов, которые будут использоваться, и количество пользователей.

Сегодня мы рассмотрим выбор серверного «железа» для небольшой организации на 25-30 пользователей, с распределенной инфраструктурой (торговые точки, склад), которой требуются терминальный сервер и программа «1С: Предприятие». Этими сервисами будут пользоваться все сотрудники.

Большинство малых компаний, для удешевления стоимости оборудования, предпочитают минимизировать количество приобретаемой техники и просят администраторов «впихнуть» все запрошенные ими сервисы в один физический сервер. Желание понятное и простительное, но тут «есть нюансы».

Можно организовать терминальный сервер и использовать там файловую версию 1С, но при таком количестве пользователей компания-разработчик рекомендует переходить на клиент-серверный вариант. Поэтому нам потребуется еще сервер под «1С: Предприятие» и сервер баз данных. Уточним сразу, что организовать терминальный сервер, сервер SQL и сервер 1С на одной операционной системе возможно, но, с точки зрения безопасности и стабильности работы сервисов, это крайне не рекомендуется. А если всё-таки очень хочется использовать один физический сервер для всех трёх ролей, то рекомендуем использовать виртуализацию, например, VMWare ESXi или Hyper-V.
Таким образом, вырисовывается три варианта:

  1. Один сервер с файловой 1С. Плохой вариант, далее мы его рассматривать не будем.
  2. Один сервер с двумя виртуальными машинами.
  3. Два физических сервера, один терминальный, второй с БД и 1С.

Для решения этих задач можно предложить следующую конфигурацию серверов:

В случае с одним физическим сервером мы остановили выбор на Dell R710, с двумя шестиядерными процессорами Xeon X5650, 64 Гб оперативной памяти и шестью дисками: два SSD в RAID 1 и четыре SAS-диска в RAID 10.

В случае с двумя физическими серверами мы остановили выбор на таких конфигурациях:

  • Терминальный сервер: IBM x3550 M3 с одним процессором Xeon E5620, 32 Гб оперативной памяти и двумя SSD в RAID 1, с дополнительной сетевой картой на два гигабитных интерфейса. У этого сервера также есть богатые возможности для апгрейда, так как он двухпроцессорный, имеет 18 слотов под модули памяти и поддерживает до 288 Гб ОЗУ.
  • Сервер баз данных: IBM x3250 M5 с одним процессором Xeon E3-1220v3, 16 Гб ОЗУ, дополнительным RAID-контроллером SAS/SATA, четырьмя SAS-дисками в RAID 10, с дополнительной сетевой картой на 2 гигабитных интерфейса.

Почему мы выбрали именно такие конфигурации? Для ответа на этот вопрос давайте подсчитаем, что нам нужно для обеспечения комфортной работы пользователей в нашей небольшой организации на 25-30 сотрудников. Чтобы не было недопонимания: это лишь один из примеров недорогого внедрения 1С, и во многих случаях целесообразнее выбрать другие конфигурации.

Процессор


С точки зрения процессорного времени терминальные сессии занимают не очень большую долю. По опыту внедрения терминальных решений в различных организациях, для поддержания комфортной работы 30-ти пользователей достаточно будет 4-6 физических ядер процессора, по одному ядру на 6-8 сессий.

Для небольшой базы SQL-серверу понадобится одно ядро. Но мы будем ориентироваться на расширение базы в будущем (или увеличение количества баз) и возьмем два ядра на SQL.

Для сервера «1С: Предприятие» важно не столько количество ядер, сколько их тактовая частота и частота шины. Поэтому заложим еще два ядра на сервер 1С.
И не забудем, что в случае использовании виртуализации одно или два ядра нам пригодится для обеспечения работы хостовой операционной системы.

Итого у нас получается:

  • для сервера с двумя виртуальными машинами нужно 12 физических ядер. Можно и меньше, но всегда должен оставаться запас по мощности. Сервер с двумя шестиядерными процессорами подходит для этого идеально.
  • для терминального сервера достаточно одного процессора Xeon E5620 с шестью ядрами, для сервера баз данных — процессора Xeon E3-1220v3 с четырьмя ядрами.

Оперативная память


Сначала посмотрим, сколько нужно оперативной памяти под сервисы:
  • Операционная система Windows Server только под себя требует 2 Гб ОЗУ.
  • Для SQL и небольшой базы 1С достаточно будет 4-6 Гб ОЗУ.
  • Сервер «1С: Предприятие» требует еще 2-3 Гб ОЗУ.
  • Рассчитываем, что каждому пользователю потребуется 700 Мб ОЗУ в терминальной сессии, тогда на 30 пользователей потребуется 21 Гб.

Теперь применим это к нашим вариантам.
  • Для одного сервера с двумя виртуальными машинами нужно около 40 Гб ОЗУ.
  • Для терминального сервера достаточно будет 24 Гб или 32 Гб ОЗУ (возьмем с запасом, предполагая будущее расширение). Для сервера с базами данных нужно не менее 8 Гб, но это «впритык», поэтому 16 Гб с запасом. Память сейчас — один из самых дешевых компонентов сервера.

Дисковая подсистема


Это традиционное бутылочное горлышко многих систем. Правильный выбор жестких дисков очень важен для обеспечения быстродействия серверов. При работе 1С с базой SQL происходит множество операций чтения/записи в секунду (IOPS). Если пользователи работают на терминальном сервере с тонких клиентов (т.е. полноценно используют терминальный сервер как рабочую среду), это сильно нагружает дисковую систему сервера. Например, 30 пользователей терминального сервера на RAID 1, SATA 3 Гбит/с, с дисками WD Velociraptor чувствуют себя некомфортно при работе с почтой и активном сёрфинге в интернете. Для терминальных серверов мы рекомендуем использовать SSD-накопители. Для серверов баз данных — SAS-диски, собранные в отказоустойчивые массивы.

Помимо накопителей, следует уделить внимание и дисковому контроллеру. Современные серверы имеют на борту довольно хорошие контроллеры, например, HP SmartArray и DELL PERC. Однако некорректно будет использовать «набортные» решения при серьёзной нагрузке, когда требуется максимальная производительность. Немного сэкономив, вы легко можете получить мощный сервер, который совершенно не тянет нагрузку. Поэтому контроллер должен быть аппаратным, а не программным, со своей энергонезависимой памятью.

Рассмотрим варианты решения этой задачи.

  • Для одного сервера с двумя виртуальными машинами желательно использовать два RAID-массива: на одном будут располагаться файлы виртуальной машины терминального сервера, на втором — файлы виртуальной машины сервера баз данных и «1C: Предприятия». Для создания первого массива лучше всего использовать два SSD-накопителя в RAID 1 (зеркало).

    Второй массив лучше создать из четырёх SAS-диска в RAID 10 (зеркало + страйп), но можно и из двух SSD-накопителей в RAID 1. Выбор зависит только от стоимости дисков и модели сервера.

  • Для двух серверов всё то же самое, только массивы будут разнесены по серверам. На терминальном — RAID 1 из двух SSD, на сервере баз данных — RAID 10.

Один или несколько серверов


Как сказано выше, у небольших организаций довольно велико желание разместить все сервисы на одном сервере.

К преимуществам использования одного сервера и виртуализации можно считать более низкое энергопотребление и более гибкое распределение ресурсов между виртуальными машинами. Ну и перенос виртуальных машин, в случае чего, гораздо удобнее, чем перенос физических ОС.

Однако два сервера имеют более широкие возможности по апгрейду. Например, в нашем варианте недорогой IBM x3550 M3 с добавлением еще одного процессора и ОЗУ превращается в элегантные шорты терминальный сервер на 50 и даже более пользователей.

Еще одно «узкое место» в нашем случае, которое необходимо учитывать при выборе двух физических серверов, это обмен данными между ними по сети. У виртуальных серверов обмен данными идёт через виртуальный коммутатор. Здесь же, для увеличения пропускной способности сети, можно установить в каждый сервер по сетевой карте с двумя гигабитными интерфейсами, которые можно агрегировать между собой и напрямую соединить оба сервера агрегированными 2-х гигабитными линками. Или же использовать сетевые карты с SPF+ 10GBASE, но это дорогое удовольствие.

Запас по мощности


При расчетах и выборе сервера необходимо принимать во внимание пиковые нагрузки. Также обязательно нужно помнить, что база данных будет только «пухнуть», объёмы данных на терминальном сервере будут расти, а количество пользователей может увеличиться. Многие предприятия экономят на запасе мощности и через полгода-год сталкиваются с перебоями в работе и жалобами пользователей. Это тот случай, когда чрезмерная экономия приводит к новым затратам в будущем — скупой платит дважды. Выбранные нами варианты рассчитаны с запасом мощности и возможностью апгрейда. Учтено, что в DELL R710 можно будет добавить еще два жестких диска и ОЗУ, а также заменить процессоры на более производительные.

Так что, если вам потребуется расширение, или количество сервисов увеличится, то тут есть большие перспективы, а существующие серверы еще долгое время будут эффективно выполнять свои задачи. Возможно, через год нам неожиданно потребуется увеличить количество пользователей в два раза, до 60 человек? Пожалуйста.

Если вы использовали один сервер DELL R710, то можно докупить недорогой IBM x3550 M3, поднять на нём гипервизор, перенести туда виртуальную машину с БД и 1С-сервером, а на DELL-е все ресурсы отдать виртуальной машине с терминалом. Это будет быстро, и не потребуется «всё выкинуть и купить новое».
Если же вы использовали два сервера IBM, то x3550 M3 с добавлением второго процессора и небольшого количества ОЗУ превращается из середнячка в довольно мощную машину. А в x3250 M5 можно обновить процессор с E3-1220v3 до E3-1285v3.

Заключение


Конечно, предложенные конфигурации — далеко не единственные варианты оборудования, например, для внедрения того же 1С. Тут очень многое зависит от текущей инфраструктуры, уровня нагрузки и её увеличения в будущем, а также бюджета. Поэтому всегда можно подобрать либо похожие модели серверов, либо более мощные и дорогие.

habr.com


Смотрите также



© 2010- GutenBlog.ru Карта сайта, XML.