Как убрать красные глаза на телефоне андроид. Что за глаз появился вконтакте. Вконтакте появился новый значок глаз

Как убрать красные глаза на телефоне андроид. Что за глаз появился вконтакте. Вконтакте появился новый значок глаз

26.02.2019

DPandMe 26 мая 2015 в 17:16

Суп из SAN. Строим виртуальный SAN на платформе Windows Server 2012 R2

  • Виртуализация

Итак, вы только что закончили восстанавливать систему после сбоя. К счастью, на этот раз обошлось - сервисы, слава богу, поднялись. Но ваш босс недоволен - требует «сделать выводы и принять меры». Очевидно, настало время задуматься о том, как жить дальше. Возможно стоит пересмотреть существующие подходы к построению инфраструктуры и предпринять шаги к обеспечению отказоустойчивости вашей продакшн-системы.



Дисклеймер: заранее прощу прощения у специалистов по SAN и благородного хабрасообщества за некоторые вольности и упрощения, допущенные мной при подготовке материала. Он рассчитан на тех, кто пока еще не знаком с технологиями хранения данных, заложенными в Windows Server 2012 R2, а также тех, кто не имеет возможности развернуть у себя полноценную сеть хранения данных на базе FC или iSCSI.

С чего же начать? Рискну предположить, что для решения проблемы отказоустойчивости требуется две вещи:

  1. Хороший план.
  2. Деньги (смета).
Строго говоря, есть еще и третий пункт – «прямые руки», но его обсуждение выходит за рамки данной статьи.

С деньгами все понятно. Что касается плана, то нам необходимо разработать такую архитектуру, чтобы в следующий раз, когда случится сбой (а он обязательно случится!), система устояла. Тут придется сделать небольшое отступление. Дело в том, что в современной терминологии есть несколько устоявшихся понятий, которые часто путают между собой. Вот они:

Высокая доступность (High Availability, HA) - способность минимизировать как запланированные, так и незапланированные простои. То есть, мы (читай - заказчик) заранее соглашаемся с тем, что в случае сбоя, понадобится некоторое разумное время для переключения на резервное оборудование и запуск на нем «упавших» сервисов. Разрыв соединения при этом неизбежен. Типичный пример: кластер Hyper-V.

Отказоустойчивовсть (Fault Tolerance, FT) - способность сохранять работоспособность в случае отказа одного или нескольких компонентов. Это когда сбой произошел, но никто, кроме админа, его не заметил. Или, когда мы отключаем один из узлов, чтобы провести на нем плановое обслуживание (например, установку обновлений), а второй узел в это время берет на себя всю нагрузку. Соединение не рвется, приложения доступны, только немного увеличивается время отклика. Типичный пример: RAID 1-го уровня.

Катастрофоустойчивость - способность относительно быстро запустить сервис в случае глобальных катаклизмов. Это когда рухнуло все и сразу. В качестве глобальных катаклизмов, любят приводить в пример ураганы, цунами и наводнения. Однако, в реалиях нашей страны гораздо более вероятным представляется отключение электричества в ЦОД-е: локальное (экскаватор кабель задел) или веерное, а также затопление подвальных помещений. Пример: резервный ЦОД.

Почему важна терминология? Да потому, что перечисленные задачи принципиально разные. Соответственно, и подходы к их решению должны быть разными. Прежде всего, мы должны определиться, что именно хотим получить: высокую доступность, отказоустойчивость или катастрофоустойчивость.

В контексте данной статьи будем обсуждать только один из трех пунктов, а именно, отказоустойчивость. Справедливости ради, надо отметить, что реальная необходимость в ней возникает не часто. В самом деле, большинство заказчиков вполне готовы мириться с небольшими, прописанными в SLA, простоями в обмен на существенную экономию денежных средств за счет отказа от непомерно дорогих «сверхнадежных» решений. К примеру, если у пользователей на несколько минут подвиснет Excel, это не станет большой проблемой для бизнеса – скорее поводом немного размяться и выпить кофе. Однако, есть и такие сервисы, которые крайне чувствительны даже к небольшому разрыву сетевого соединения. Например, СУБД и гипервизоры. Если Hyper-V потеряет связь со своими виртуальными жесткими дисками, на которых запущены виртуальные машины, это может привести к печальным последствиям. Также и SQL - внезапная потеря сервером своих баз может надолго занять интересным делом DB-админа.

Итак, мы решили, что будем строить отказоустойчивое решение. Другими словами, необходимо убрать возможные точки отказа на всех существующих уровнях: серверном, сетевом и уровне хранения данных. Чем это достигается? Конечно, дублированием всего, чего только можно: серверов, сетевых интерфейсов, каналов передачи данных и, конечно, дисковой подсистемы. Тут перед нашими глазами встает светлый образ SAN. Действительно, что может быть лучше для обеспечения отказоустойчивости, чем старый добрый аппаратный FC SAN? Так-то оно так… Только есть у этого решения один убийственный недостаток. Цена. Стоимость подобной системы начинается с семизначных чисел. А верхний предел практически не ограничен. Поэтому, ее нельзя просто взять и купить – как минимум, придется забюджетировать.

Кроме того, закупая дорогущее железо, мы попадаем в серьезную зависимость от вендора, поскольку совместимость с его оборудованием сторонних производителей далеко не гарантируется. Ну и масштабирование таких систем может потребовать значительных временных затрат. Ведь дорогие комплектующие никто на складе не держит – их надо заказывать и ждать неделями, а то и месяцами. А босс требует «здесь и сейчас». И чтобы все работало «как часы». И чтобы с минимальными затратами!

Где же выход? Неужели светлым мечтам о SAN-е не суждено сбыться? Подождите… А что вообще такое SAN? По сути, это просто способ разделения ресурсов высокопроизводительных устройств хранения данных между серверами на блочном уровне. Когда-то давно классические файберные сети SAN были практически безальтернативной технологией там, где требовалась исключительная производительность, отказоустойчивость и масштабируемость. Скорость FC на порядок превышала типичный Ethernet с его 100 Mb/s.

Но со временем появились сетевые адаптеры 1 и 10 Gbit Ethernet, возникли программные и аппаратные технологии увеличения пропускной способности сети (NIC teaming, сжатие данных и т.д.), что несколько снизило преимущества FC и привело к взрывному росту популярности интерфейса iSCSI. Что касается отказоустойчивости и масштабируемости, то и тут случился прогресс. К примеру, появились варианты реализации SAN на базе хранилищ с интерфейсом SAS, который, вообще говоря, изначально предназначался для прямого подключения хранилища к серверу – DAS. Дело в том, что интерфейс SAS, помимо высоких скоростей (6-12 Gbit/s), обладает еще одним существенным преимуществом – очень малыми задержками (latency). Это весьма важно для высоконагруженных хостов, вроде Hyper-V.

А что у нас есть, кроме SAN? А кроме SAN есть только NAS. Если сравнивать SAN и NAS, то главным отличием первого от второго является работа на блочном уровне. Хост-система может создавать на SAN логические разделы, форматировать их и использовать как обычные локальные жесткие диски. NAS же работает на уровне файловой системы и использует протоколы передачи файлов, такие как SMB или CIFS. Поэтому NAS, конечно, дешево и просто, но о-о-очень медленно. А потому, для высоконагруженных продакшн-систем бесперспективно.

А нельзя ли как-то совместить высокую скорость и надежность SAN с простотой реализации и доступностью NAS? Что, если часть функционала SAN попробовать реализовать программно? Видимо как-то-так рассуждали инженеры одной скромной компании из Рэдмонда, когда готовили к выходу на рынок свою новую технологию. В итоге, у них действительно получилось нечто, по формальным признакам напоминающее SAN. Но при этом в несколько раз дешевле. Нам предлагают использовать весьма недорогие и доступные комплектующие для приготовления изысканного блюда под названием «Scale-Out File Server», т.е. масштабируемый файловый сервер. Слово «масштабируемый», на мой взгляд, не совсем точно отражает суть, поскольку, в первую очередь, сервер получился отказоустойчивым.

Итак, сегодня будем готовить «Суп из SAN» на основе технологий Microsoft Windows Server 2012 R2.
В качестве ингредиентов, нам понадобятся:

  • серверы без дисков (только небольшие «зеркала» под систему) - 2 шт.;
  • недорогая дисковая полка JBOD с двумя SAS интерфейсами – 1 шт.;
  • HDD SAS – не менее 10 шт. (лучше – больше);
  • SSD SAS – хотя бы 2 шт.;
  • сетевые адаптеры 1-10 GBit (лучше – с поддержкой RDMA) – 2-4 шт.;
В качестве приправы, будем использовать рекомендованный набор специй: Storage Spaces, Tiering, SMB Direct, SMB Multichannel, CSV. Время приготовления: 1-1,5 часа при наличии опыта или 1-2 дня без такового.

Немного теории

В Windows Server 2012 и Windows 8 появилась интересная технология под названием «Дисковые пространства» (Storage Spaces). Предназначена она для абстрагирования от физического уровня дисковой подсистемы. По сути - это драйвер операционной системы, расположенный после менеджера разделов и перед менеджером томов, который позволяет виртуализировать блочное хранилище, скрывая его от операционной системы. Достигается это группировкой физических дисков в пулы и созданием на основе пулов виртуальных дисков (LUN-ов в терминологии SAN). Таким образом, все приложения будут иметь дело именно с виртуальными дисками, даже не подозревая, из чего они состоят. Но постойте… Опять виртуальные диски? Ведь эта технология под именем «динамических дисков» была реализована Microsoft (точнее, лицензирована у Veritas) аж в 2000 г. - в составе Windows 2000! Опять нам пытаются всучить залежалый товар?

Все не так просто… В отличие от динамических дисков, дисковые пространства - технология гораздо более умная, в чем мы убедимся позже. А пока уточним термины:

Пулы носителей (Storage Pools) - коллекция физических дисков, которая позволяет объединять диски, гибко увеличивать емкость и делегировать администрирование.

Дисковые пространства (Storage Spaces) - виртуальные диски, созданные из свободного пространства в пуле носителей. К атрибутам дисковых пространств относятся уровень устойчивости, уровни хранилища, фиксированная подготовка и точный административный контроль.

Кластеризованные дисковые пространства (Clustered Storage Spaces) – те же дисковые пространства, размещенные на общем хранилище - то, что нам надо!

Как создать виртуальный диск? В нашем случае, для начала, нужно объединить в пул физические SAS диски - HDD и SSD. Вообще говоря, объединять в пулы можно диски с разными интерфейсами: SATA, SCSI и даже USB. Но для развертывания отказоустойчивого кластера (Scale-Out File Server) подходят только диски с интерфейсом SAS. Объединение дисков в пул не представляет каких-либо сложностей и делается с помощью мастера буквально в два клика. Разумеется, на объединяемых дисках не должно быть никаких разделов, либо их придется удалить. Объединив диски в пулы, мы их сгруппируем. Но еще надо объяснить операционной системе, что с ними делать дальше. Теперь можно создать из дискового пула виртуальный жесткий диск (LUN). Технология Storage Spaces позволяет создавать 3 варианта виртуальных жестких дисков, подобных RAID-уровням:

  • Simple (аналог RAID0) – рекомендуется только для тестов;
  • Mirroring (аналог RAID1) – рекомендуется для рабочих нагрузок;
  • Parity (аналог RAID5) – рекомендуется для формирования разделов с архивами данных.
Как и в аппаратных RAID, можно оставить один или два диска в горячем резерве (Hot Spare). Перечисленные возможности представлены в графическом интерфейсе по умолчанию. Однако, если этого мало, с помощью командлетов PowerShell можно получить и более хитрые комбинации, соответствующие, к примеру, RAID уровня 10.

Позвольте, скажет читатель, если это программный RAID, он ведь должен работать медленнее аппаратного! И будет совершенно прав. Да, медленнее. Но насколько? Тут все не так однозначно. Во-первых, как показывает практика, скорость дисков легко компенсируется их количеством. Поэтому, разница в производительности будет тем менее заметна, чем больше дисков мы объединим в пул. Для промышленного применения рекомендуется использовать от 12 дисков. Во-вторых, в Windows Server 2012 R2 появилась одна замечательная фича: объединение в один пул дисков SSD и HDD с формированием т.н. «гибридного пула» (Tiered Storage). В этом случае система сама будет отслеживать и перемещать на быстрые SSD диски наиболее часто используемые данные (помните я говорил, что система умная!). Причем, перемещение «горячих» данных на SSD происходит поблочно, а не на уровне файлов. Более того, с помощью командлетов PowerShell можно явно указать, какие файлы необходимо разместить на SSD, а какие - на HDD. И в-третьих, Storage Spaces поддерживают т.н. «кэш обратной записи» (WriteBack Cache). При кратковременных всплесках операций записи система перехватывает данные и размещает их в специальной области на SSD. Таким образом сглаживается падение производительности при внезапных пиковых нагрузках. Все вместе - большое кол-во дисков, гибридный пул и кэш обратной записи – способно существенно поднять быстродействие системы, сведя к минимуму негативный эффект от программного RAID. Что касается экономии свободного места на дисках, то в Storage Spaces поддерживается такая привычная для SAN технология, как Thin Provisioning – для более экономного распределения дисковых ресурсов. Справедливости ради, заметим, что пока она несовместима с гибридным пулом – придется выбрать что-нибудь одно.

Итак, средствами Storage Spaces мы можем обеспечить отказоустойчивость на уровне СХД. Теперь поднимемся на уровень выше. Серверы необходимо объединить в кластер. Эта возможность появилась у Microsoft уже достаточно давно. Однако, ранее такой кластер можно было назвать лишь высокодоступным (вспоминаем терминологию). И только с выходом Windows Server 2012 появилась возможность сделать его по-настоящему отказоустойчивым. Называется эта фича «Scale-Out File Server». Тут будет уместно напомнить, что файловые кластеры могут работать в одном из двух режимов:

  • «Active - Passive»; отработка отказа с прерыванием сервиса – failover.
  • «Active - Active»; прозрачная отработка отказа – transparent failover.
В первом случае только один из узлов активный – именно с ним происходит обмен данными, а второй находится в ожидании. В случае отказа первого узла, второй принимает на себя всю нагрузку. Однако, при этом происходит неизбежный разрыв соединения и прерывание в работе сервиса. Именно по такому принципу работает файловый кластер в Windows Server 2008 R2. Во втором случае оба узла активны и способны одновременно принимать данные от клиентов. В случае отказа одного из узлов, потери SMB-сессии не происходит, соответственно, работа приложений не прерывается. Эта технология появилась только в версии Windows Server 2012.

Но чтобы такая одновременная работа с хранилищем стала возможной, потребовалась очередная технология под названием Cluster Shared Volume (CSV). Если не вдаваться в подробности, это логический том, специальным образом подготовленный для одновременной работы с несколькими узлами в составе кластера.

А что на сетевом уровне? Здесь у Microsoft припасено сразу несколько приятных сюрпризов. Первый – это SMB Direct поверх технологии RDMA. Если говорить упрощенно, это технология прямого доступа к памяти через сетевой интерфейс, без накладных расходов на использование центрального процессора. При включении данной фичи сетевые адаптеры фактически начинают работать на скорости интерфейса, обеспечивая высокую пропускную способность и чрезвычайно быстрый отклик на сетевые запросы, что дает огромный выигрыш в производительности для таких рабочих нагрузок, как Hyper-V и SQL Server. Скажем так, работа с удаленным файловым сервером становится похожа на работу с локальным хранилищем. И хотя сетевые адаптеры с поддержкой RDMA пока еще достаточно дороги, их стоимость непрерывно снижается (на момент написания данной статьи составляет около 20 т.р.).

Второй сюрприз называется SMB Multichannel. Если на потребителе нагрузки (например, SQL Server) и на принимающей стороне (файловый кластер) установлено по два сетевых адаптера, то между клиентом и сервером создается многоканальное SMB-подключение. Это означает, что если, к примеру, по сети копируется файл и в процессе копирования что-то происходит с одним из сетевых адаптеров, это не приводит к прерыванию процесса – файл продолжает копироваться, как ни в чем не бывало. Чтобы убедиться в наличии SMB Multichannel, запустите командлет PowerShell: Get-SmbMultichannelConnection. Вы увидите, что-то вроде этого:


Как видно, соединение установлено при помощи сразу двух сетевых интерфейсов.

Наконец, в протоколе SMB 3.0 проведена оптимизация работы балансировки нагрузки между узлами. Как раз для конфигурации Scale-Out File Server.

Ну а теперь, когда мы кратко пробежались по технологиям, самое время перейти к практике. Для упрощения задачи будем строить двухузловой кластер, хотя ничто не мешает поднять отказоустойчивый файловый кластер, имеющий до 8 узлов. Опишем порядок действий с самого начала и приступим к его выполнению.

Подготовительные работы

Итак, берем дисковую полку в режиме JBOD. Набиваем ее дисками, хотя бы два из которых должны быть SSD. У корзины должно быть два SAS-экспандера, по два разъема на каждом. Через них подключаем корзину к двум серверам, желательно одинаковым. Для этой цели вполне подойдут простые одноюнитовые серверы. На серверах в качестве контроллеров устанавливаем обычные SAS HBA.

Далее по пунктам:

  1. Устанавливаем на каждый сервер ОС Windows Server 2012 R2.
  2. Настраиваем сетевые подключения, устанавливаем обновления, вводим серверы в домен.
  3. Добавляем роль Файловый сервер на каждом сервере.
  4. На одном из серверов открываем консоль Диспетчер отказоустойчивости кластеров.
  5. С помощью мастера создаем стандартный кластер с отработкой отказа (Failover Cluster).
  6. Создаем новый пул: Хранилище -> Пулы -> Создать новый пул.
  7. Добавляем в пул SSD и HDD диски, при необходимости указываем параметры доступа.
  8. Создаем виртуальный диск: Пул –> правый клик –> Новый виртуальный диск.
  9. С помощью мастера задаем тип дисковой подсистемы (Mirror).
  10. C помощью мастера создаем том на диске, присваиваем букву, форматируем в NTFS.
  11. Создаем общий кластерный том (CSV): Выбираем нужный диск -> Добавить в общие тома кластера.
  12. Задаем роль: Роли -> Настроить роль -> Файловый сервер -> Масштабируемый файловый сервер.
  13. Чтобы не ждать, сбрасываем кэш распознавателя DNS (ipconfig /flushdns).
  14. Выбираем роль -> Добавить общий файловый ресурс -> Общий ресурс SMB –> Профиль приложений.
  15. Указываем расположение общего ресурса, даем ему название.

Все. Конечным итогом наших усилий стало создание файловой шары, расположенной по стандартному UNC-пути, типа: \\ScaleOutFS\Share. Теперь можем размещать на ней критические файловые ресурсы, такие как виртуальные жесткие диски Hyper-V или базы данных SQL сервера. Таким образом, мы получили готовую сеть хранения данных. Принципиальное отличие ее от традиционных SAN состоит в том, что для подключения используется протокол SMB 3.0, а не какой-то из блочных протоколов (iSCSI/FC), что в определенном смысле является даже преимуществом. У кого-то может возникнуть желание развернуть роль Hyper-V прямо на кластерном сервере, разместив виртуальные диски на общем хранилище. Придется огорчить. К сожалению, такая конфигурация пока не поддерживается. Для ролей Hyper-V и SQL Server необходимо поднимать отдельные серверы, которые будут работать с нашей СХД по SMB-протоколу.

Осталось подвести итоги…

Отказоустойчивость
Обеспечивается на всех уровнях: хранения данных, серверов, сетевого взаимодействия.
Производительность
Будет зависеть от нескольких факторов. В типичном случае сопоставима с производительностью решений на базе iSCSI. А в случае задействования всех имеющихся возможностей, включая технологию RDMA, пропускная способность СХД окажется даже выше, чем при FC-подключении (до 56 GBit/s).
Масштабируемость
На уровне дисковой подсистемы обеспечивается простым добавлением дисков или каскадированием хранилищ JBOD. На уровне серверов – добавлением узлов в кластер. На сетевом уровне – добавлением сетевых адаптеров, объединением их в группы (NIC teaming) или заменой их на другие, с большей пропускной способностью.
Безопасность
Дисковые пулы можно контролировать с помощью списков контроля доступа (ACL), а также делегировать полномочия администраторам. Управление хранилищами может быть полностью интегрировано с ADDS.
Стоимость
Очевидно, что даже при использовании всех возможностей, заложенных в данную технологию, стоимость готового решения будет в несколько раз ниже традиционного SAN.

А как же недостатки? Разумеется, они тоже имеются. К примеру, СХД и серверы нельзя разнести на значительное расстояние, как в случае FC или iSCSI. Нельзя выстроить сложную топологию. Коммутаторы SAS – пока еще редкость. Кроме того, SAS не поддерживает аппаратную репликацию – ее придется реализовывать программными средствами. Поэтому, описанная выше концепция – не панацея, а всего лишь альтернатива традиционным СХД. Если у вас уже есть развернутый аппаратный SAN, это ни коим образом не повод от него отказываться. Железо должно отрабатывать вложенные в него деньги. Но если вы пока еще только задумываетесь об архитектуре будущей системы хранения данных, имеет смысл рассмотреть и данный вариант, как вполне обоснованный с инженерной и экономической точек зрения. Ну и напоследок хотелось бы отметить, что «суп из SAN» можно сварить не только на технологиях Microsoft. Если у вас имеется хранилище с интерфейсом iSCSI, можете воспользоваться такими продуктами, как StarWind iSCSI SAN, VMware Virtual SAN, Openfiler, FreeNAS, Open-E DSS V6 и т.п.

Приятного аппетита!
При подготовке статьи были использованы материалы портала

Дисковые пространства (Storage Spaces) – штатная функция Windows 8, 8.1 и 10, которая позволяет объединить несколько жестких дисков или твердотельных накопителей в единый пул хранения. Функция поддерживает диски, подключенные через любой интерфейс (ATA, SATA, SAS или USB), и позволяет объединить диски, которые отличаются по размеру.

Storage Spaces обеспечивают некоторый уровень отказоустойчивости – если один диск в пуле выйдет из строя, никакие данные не потеряются, а неисправный диск можно будет легко заменить. В определенной степени эта функция идентична RAID (избыточный массив независимых дисков) уровня 1 («зеркало») и 5 (чередование с распределенной четностью), но в отличие от RAID дисковые пространства позволяют объединить диски любого типа и размера. Однако если вы уже используете аппаратный или программный RAID-массив, то переход на дисковые пространства не имеет никакого смысла, поскольку никаких преимуществ с точки зрения защиты данных или производительности вы не получите.

Дисковые пространства можно использовать для хранения и , временных (в случае использования простого дискового пространства без устойчивости) или действительно важных файлов (в случае использования двухстороннего зеркала или четности). Функция работает с дисками в формате NTFS, позволяет задать особые разрешения для файлов и папок или включить шифрование содержимого (BitLocker тоже поддерживается). Windows 8/8.1/10 распознают новую файловую систему ReFS, поэтому в процессе создания дискового пространства можно выбрать и этот формат.

В отличие от традиционных дисков, Storage Spaces не нужно дефрагментировать. Использовать на них проверку диска также нет необходимости. В случае каких-либо проблем Windows немедленно об этом уведомит. Если один из физических дисков будет поврежден, просто отключите его, попробуйте восстановить и снова добавьте в пул, если с ним все в порядке.

Если объединить диски со схожими характеристиками производительности (например, два одинаковых внутренних жестких диска), то общая скорость чтения файлов заметно увеличится, тогда как скорость записи немного упадет. При объединении внутренних и внешних дисков скорость чтения и записи будет немного выше, чем у самого медленного диска в пуле хранения.

Хотя Windows 8, 8.1 и 10 позволяют смешивать диски разных размеров, рекомендуется использовать диски одного объема, дабы не тратить дисковое пространство впустую. Например, подключив один диск на 300 Гб и один на 750 Гб в двухстороннее зеркало, вы получите дисковое пространство (виртуальный диск) объемом 525 Гб. Расчет таков: (300+750)/2 – для обеспечения отказоустойчивости будет доступна только половина от общего дискового пространства при использовании двухстороннего зеркала. Остальное пространство будет использоваться для резервирования данных. Но поскольку зеркалирование подразумевает собой, что все диски в пуле хранения содержат одинаковые данные, то реально используемое пространство будет ограничено 300 Гб (наименьший физический диск в пуле просто не может хранить больше данных). Это означает, что дополнительные 450 Гб на диске 750 Гб использоваться не будут, и вы не сможете хранить более 300 гигабайт информации, если не добавите диск(и) с емкостью, которой будет достаточно для обеспечения отказоустойчивости на случай выхода из строя самого большого диска. Конечно, можно убрать мелкие диски и заменить их более вместительными позже – но только по одному за раз, чтобы избежать потери данных.

Диски Storage Spaces могут быть без проблем подключены (в любом порядке) к любому другому компьютеру с Windows 8/8.1/10, но более ранние версии Windows не поддерживают дисковые пространства – для них это нераспознанный раздел.

Наконец, важно отметить, что системный диск (на котором установлена операционная система) не может быть добавлен в дисковое пространство.

Как создать дисковое пространство

Для создания дискового пространства требуется по крайней мере два физических жестких диска (системный диск с Windows не в счет) или твердотельных накопителя (SSD). USB-флэшки или карты памяти для этой цели не годятся.

Можно использовать как форматированные, так и неформатированные диски, так как при создании пула хранения выбранные диски в любом случае будут подвергнуты форматированию. Поэтому убедитесь, что на них нет ничего важного. Смотрите, я вас предупредил!

Открываем Панель управления и переходим в Система и безопасность\Дисковые пространства .

Жмем «Создать новый пул и дисковое пространство».

В окне выбора дисков, как уже было сказано выше, вы увидите и форматированные, и неформатированные диски, если таковые подключены (кроме системного диска, конечно).

В том случае, если система не сможет обнаружить подходящих дисковых устройств, вы увидите такое сообщение:

Итак, отмечаем диски, из которых хотим образовать пул хранения и жмем кнопку «Создать пул». Опять же, имейте в виду, что все данные на выбранных дисках будут уничтожены раз и навсегда.

В разделе «Устойчивость» представлены следующие типы устойчивости:

  • Простой (без устойчивости) – требует по крайней мере один диск и не обеспечивает никакой защиты данных. Несколько дисков используются как один большой диск. При выходе из строя одного диска будут потеряны все данные, которые хранятся в дисковом пространстве. Этот тип похож на RAID уровня 0 (чередование) и увеличивает скорость чтения и записи. Такое дисковое пространство годится разве что для хранения больших временных файлов.
  • Двухстороннее зеркало – требует не менее двух дисков, увеличивает производительность чтения и защищает от отказа одного из дисков. Это своего рода аналог RAID уровня 1 (зеркалирование) и наиболее используемый вариант.
  • Трехстороннее зеркало – аналог RAID уровня 10, увеличивающий скорость чтения данных и защищающий от одновременного отказа двух дисков. Для данного типа устойчивости требуется не менее пяти дисков.
  • Четность – требует не менее трех дисков и защищает от сбоя одного из дисков. Скорость чтения в данном случае ниже, чем при использовании зеркалированных дисков. Этот тип предназначен для больших файлов, которые изменяются не часто – видео, например.

В разделе «Размер» задается максимальный размер дискового пространства. Поле «Размер (максимум)» заполняется автоматически в зависимости от выбранного типа отказоустойчивости: при выборе двухстороннего зеркала будет отображена половина от общей емкости пула (сумма дискового пространства всех подключенных дисков); при выборе трехстороннего зеркала или четности итоговым максимальным размером будет, соответственно, одна треть или две трети от общей емкости дискового пространства.

При желании в поле «Размер (максимум)» можно установить значение гораздо больше отображаемого, поскольку функция предусматривает добавление дисков при нехватке емкости. Однако уменьшение размера дискового пространства не поддерживается.

Определившись с типом устойчивости и размером пула, жмем «Создать дисковое пространство».

Этот процесс займет некоторое время.

Затем дисковое пространство появится в проводнике, как и любой жесткий диск.

Управление дисковыми пространствами

Управление дисковыми пространствами осуществляется из того же окна, в котором они создаются. Если команды управления недоступны, в первую очередь жмем кнопку «Изменить параметры» в правом верхнем углу окна. После этого все они станут активны.

В окне «Изменение дискового пространства» можно изменить название и букву диска. Размер дискового пространства можно только увеличить, обратная процедура не поддерживается. Невозможен и выбор другого типа устойчивости.

Можно также переименовать пул носителей и физические диски. Соответствующие команды находятся в главном окне дисковых пространств.

Для расширения дискового пространства можно подключить новый диск(и). Для этого жмем «Добавить диски» и выбираем дисковые устройства. Помните, что выбранные диски будут отформатированы и все данные на них будут потеряны .

Удаление дисков из дискового пространства

Чтобы удалить из дискового пространства вышедший из строя, отключенный или более ненужный диск, находим его в раскрывающемся списке «Физические диски», жмем ссылку «Удалить» напротив него и подтверждаем удаление.

Имейте в виду, что не все диски можно удалить – если какой-то из дисков не имеет команды «Удалить», значит, он важен для работы всего дискового пространства.

В некоторых случаях можно столкнуться с ошибкой «Невозможно удалить диск из пула. Диск не может быть удален, потому что не все данные могут быть перераспределены. Добавьте дополнительный диск в пул и повторите операцию» . Обычно это означает, что у остальных дисков в пуле слишком мало свободного места, чтобы поддержать удаление этого диска.

Удаление дискового пространства и пула носителей

Дисковое пространство можно удалить, если оно больше не нужно, или если нужно изменить его тип устойчивости. Вместе с удалением дискового пространства удаляются и все хранящиеся на нем данные , так что не забывайте об этом.

Вот как это делается: в раскрывающемся списке «Дисковые пространства» находим то, которое собираемся удалить (если у нас их несколько) и жмем «Удалить».

Подтверждаем удаление.

Удалив все дисковые пространства, можно удалить и пул носителей. После этого все диски, включенные в пул, станут отображаться как отдельные диски.

Кстати, один пул носителей может содержать несколько дисковых пространств, если в пуле достаточно места.

Отличного Вам дня!

Технология Storage Spaces в Windows 8

Storage Spaces или Дисковые пространства — новая технология хранения данных, призванная предотвратить потерю данных и обеспечить удобство хранения больших объемов информации. Технология серверная и принцип ее работы подобен принципу работы RAID-массивов, однако есть существенные отличия, позволяющие использовать ее в клиентских операционных системах.

Суть работы Storage Spaces состоит в следующем: жесткие диски, подключенные к компьютеру, можно объединить в один или несколько пулов хранения. Каждым пулом можно управлять как единым объектом, хотя он и состоит из нескольких дисков. И в отличие от технологии RAID (где все диски должны быть строго идентичны) Storage Spaces позволяет объединять в пулы диски разных объемов и типов, причем как внутренние (SATA), так и внешние (напр. USB). Диски можно смешивать в разных сочетаниях, а для расширения пула хранения достаточно подключить новый диск и добавить его к пулу.

На основе пула создаются виртуальные области — дисковые пространства, с помощью которых и происходит доступ к пулу из файловой системы. В одном пуле можно создать несколько дисковых пространств. Если сравнивать Storage Spaces с привычными вещами, то пул хранения — это физический диск, на котором можно создать одну или несколько логических областей, или дисковых пространств. Дисковые пространства интегрируются с Windows Explorer и отображаются в нем как обычные диски, так что доступ к ним можно получить как и к любому диску в системе, с обычной буквой диска.

Для сохранности данных Storage Spaces использует зеркалирование, гарантируя создание как минимум двух копий данных, каждая на отдельном диске, чтобы предотвратить потерю данных в случае поломки жесткого диска. При желании эту функцию можно настроить и так, чтобы хранить данные на трех разных физических дисках. Storage Spaces также поддерживает контроль четности (аналог RAID-5), позволяя создать две разных копии данных; при этом требуется наличие трех физических дисков — два для данных и третий для хранения контрольных сумм.

В теории все выглядит красиво. Но чтобы лучше понять новую технологию, надо ее попробовать вживую, на практике. Этим и займемся.

Практическое использование Storage Spaces

Управление дисковыми пространствами и пулами находится в Панели управления, на вкладке «Дисковые пространства».

Storage Spaces показывает доступные диски (все кроме загрузочного и системного разделов) и предупреждает, что при добавлении в пул форматированных дисков они будут переформатированы и все данные на них будут уничтожены без возможности восстановления. Выбираем диски и жмем кнопку «Создать пул».

Пул создан. Теперь нам надо создать на нем дисковое пространство и задать его параметры: имя, букву диска, тип устойчивости и размер. Имя и букву диска можно оставить по умолчанию, а про тип устойчивости стоит поговорить поподробнее. Всего доступно четыре типа устойчивости:

Простой — дисковое пространство распределено по жёстким дискам последовательно, емкость равна сумме емкостей составляющих дисков. Вероятность отказа приблизительно равна сумме вероятностей отказа каждого диска в массиве (т.е. при выходе из строя одного диска теряется вся информация);

Двухстороннее зеркало — информация распределена по двум дискам. На каждом диске хранится полная копия данных и при выходе одного диска из строя информация не будет потеряна. Емкость при этом составляет половину от общей емкости дисков;

Трехстороннее зеркало — данные хранятся одновременно на трех дисках, что позволяет сохранить информацию даже при выходе из строя двух дисков. Для реализации этого режима необходимо не меньше пяти дисков в пуле, при этом будет доступно будет лишь 1/4 от общей емкости всех дисков;

Четность — данные пишутся на разные диски вместе со сведениями о четности. При выходе из строя одного диска данные можно восстановить, используя контрольную сумму. Емкость равна 2/3 от общей емкости дисков в пуле. Для этого режима необходимо не меньше трех дисков.

Емкость дискового пространства устанавливается автоматически в зависимости от количества дисков и выбранного типа устойчивости. Однако при необходимости размер дискового пространства можно указать больше, чем доступное место на пуле, а недостающие диски добавить позже. Впрочем, при добавлении дисков в пул размер увеличивается автоматически, так что большой пользы от такой возможности лично я не вижу.

Задав параметры жмем на кнопку «Создать дисковое пространство» и ждем, пока мастер подготовит и отформатирует пространство.

По окончании процесса в панели управления Storage Spaces можно получить подробные сведения о пуле и созданных в нем дисковых пространствах, а также посмотреть физические диски, входящие в пул. К уже работающему пулу можно добавлять новые диски, увеличивая его размер. Здесь же можно создавать новые дисковые пространства или удалять существующие.

А вот так дисковое пространство выглядит в Проводнике. Если бы не название, то от обычного диска не отличить. И как с обычным диском, с ним можно делать все что угодно. На нем можно хранить данные, его и хранящиеся на нем папки можно добавлять в библиотеки, на него можно устанавливать приложения. Его даже можно шифровать с помощью BitLocker. Ведь для операционной системы и приложений это обыкновенный диск. Единственное ограничение — дисковое пространство нельзя использовать как системный.

В общем Storage Spaces довольно интересная технология, позволяющая защитить важные данные от потери. Правда доступна она будет скорее всего только в редакции Windows 8 Enterprise.



© 2024 beasthackerz.ru - Браузеры. Аудио. Жесткий диск. Программы. Локальная сеть. Windows