Blog Marcina Bojko

Linux,Windows,serwer, i tak dalej ;)

Posts Tagged ‘filesystem

Blogi które śledzę – MVP i nie tylko.

Nie jest tajemnicą, iż uważam Microsoft za firmę, w której myśl inżynieryjna jest tłamszona przez część schizofreniczno-marketoidalną, co widać w ich kolejnych posunięciach. Brak jakiejkolwiek możliwości wpływania przez inżynierów na swoje produkty, częste zmiany zasad gry w połowie rozgrywki, paranoidalne trzymane się jedynie rynku USA (nie chcę nawet komentować wykastrowanego XBL w PL). Po kolejnej konferencji, na której widzę te same twarze „celebrytów-evangelistów” wiem, że nic się w tej sytuacji nie zmieni na dobre.

Tym, którzy nie widzieli – polecam, to niezły otwieracz oczu:

Rynek i chęć współpracy z produktami Microsoftu ratują dla mnie REALNI (nie ewangeliczni) MVP – ludzie zatrudnieni na co dzień w przeróżnych firmach, zajmujący się realnymi problemami, rozwiązującymi je i dzielącymi się tym z całym światem.

Swoją przygodę z Hyper-V zaczynałem od próby weryfikacji różnic pomiędzy produktami konkurencji – język Technetu to beznadziejna maszynowa nowomowa, która w żaden sposób nie wyjaśnia jak osiagnąć to co próbujesz. Śmiało moge powiedzieć iż siedziałbym jeszcze w epoce IT łupanego, gdyby nie kontakt z MVP – ludzmi, którzy częściowo bezinteresownie przeprowadzali nas przez meandry korporacyjnych zawiłości.

Obecnie, aby pozostać w obiegu (na bełkot Microsoftu szkoda mi czasu) sledzę:

  • Mało przydatne:

System Center: Virtual Machine Manager http://blogs.technet.com/b/scvmm/

W zasadzie tylko komunikaty o poprawkach i opisy rozwiązań problemów, już dawno przez społeczność rozwiązanych.

Virtualisation Bloghttp://blogs.technet.com/b/virtualization/default.aspx

Jak wyżej.Niestety.

  • Obowiązkowe (Microsoft, Hyper-V, File Server)

Łukasz Kałużnyhttp://blog.kaluzny.pro/ – Blog Łukasza był dla mnie początkiem próby zrozumienia działania i przewagi HyperV. Chociaż ostatnio pisze rzadziej, sposób w jaki przekazywał powodował iż na początkowym etapie bywał po prostu niezastąpiony.

Aidan Finnhttp://www.aidanfinn.com/ – wyszczekany, niepoprawny politycznie, hejter Linuksów i VMWare. Wrzuca zarówno rozwiązania swoje, jak i w formie agregatora newsów rzeczy związane z Hyper-V, Azure. Nie boi się w mało delikatny sposób zaznaczyć kto w Microsofcie ma problemy z głową przy wprowadzaniu (tak, tak! więcej zamieszania w licencjonowaniu i supporcie) nowości.

Ben Armstronghttp://blogs.msdn.com/b/virtual_pc_guy/ – Manager programu Hyper-V. Gość z niesamowitą wiedzą, dzielący się DZIAŁAJĄCYMI rozwiązaniami w ramach oficjalnego uczestnictwa w programie Microsoftu.

Jose Barreto’s Bloghttp://blogs.technet.com/b/josebda/default.aspx – kolejny uczestnik programu Microsoftu (FIle Server Team). Jego posty z kolei skupiają się na rozwiązaniach z zakresu Storage. Nie ma co jednak zapominać iż Storage to SILNY i KLUCZOWY parametr dobrego hypervisora.

Didier Van Hoye ‚Working Hard in IT’http://workinghardinit.wordpress.com/ tam gdzie zawiodą oficjalne sposoby Microsoftu, lub osoby powyżej mają związane ręce z powodów oficjalnych, tam wkracza Didier. Jego artykuły mogą uratować Ci życie (lub karierę) w przypadku kolejnego świetnego pomysłu marketingu czy kierownictwa Microsoftu. Dobrze Wam radzę – wrzucać jego notki do Evernota czy Pocketa bo w chwili kryzysu mamy rozwiązanie podane jak na tacy.

Michael Rueefli AKA Dr.MIRUhttp://www.miru.ch/ Michael skupia się na najbardziej niedocenionym obecnie pomyśle Microsoftu czyli HyperV Replica. Z tym rozwiązaniem jest świetnie jak działa – jak nie działa, to na 99% Michael JUŻ wie dlaczego i co zrobić.

Kristian Nesehttp://kristiannese.blogspot.com/ – Azure i HyperV

  • Obowiązkowe – sensowni ludzie w PL

Agregator Ziemborahttp://ziembor.pl/plitproblogs/ – Skupia wpisy profesjonalistów w PL piszących dla innych, celem pomocy. Nieopatrznie powiem, iż poniższy blog jest w nim obecny.

Chociaż w żaden sposób nie pretenduję do powyższej czołówki (charakter mojej pracy nie pozwoli mi specjalizować się tylko w kilku wybranych technologiach) chciałbym wierzyć (i wierzę, patrząc na statystyki i maile ze swojego bloga) iż komuś tak sprezentowane rozwiązanie przyda się w krytycznej chwili.

Serdeczne podziękowania dla Michała Panasiewicza (z którym sprzeczam się równie często, co namiętnie) jako inspiracji dla powyższego wpisu.

I jak wyżej – szanowni Microsoftowicze – MVP są naprawdę jedynym powodem, który przepycha mnie przez codzienne obcowanie z waszymi technologiami.

Written by marcinbojko

Wrzesień 7, 2014 at 19:19

Napisane w open source, work

Tagged with , , , ,

Compacting Virtual Disks in System Center Virtual Machine Manager 2012 R2 or Hyper-V 2012 R2

As we all know – disk space isn’t free. If you allocate disk space to your virtual machine, you always want to allocate proper, well-balanced size to shorten future downtimes. But what is proper and balanced you ask?  There is no short answer to this, but if you’re  IT person, you always will try to allocate more than is needed right at the moment.  The decision is : should I use static or dynamic disks?

For me, there is no really need to use static disks anymore as there is no real speed difference. So, the real pro using dynamic disk is their smaller size.

In production environment, using Microsoft’s hypervisor, we can expect our VM to grow over time. During the nature of virtual machines and virtual disks, the real data machine uses are not the same numbers as virtual disk sizes. It is happening due to hypervisor behaviour – deleting all data from OS in virtual machine is no more than throwing away and index card from your book. The written data are still there, so there is no easy, automated way to compact a virtual disk.

Hypervisor however, tries to allocate in a first place, blocks marked as used. So the real expanding is happening when you’re constantly changing your data, without deleting them first. The great example is with databases, log and temporary trash disks and just plain and simple oversizing. I’ve had a case when relativly small machine (20 GB CentOS with a 600 GB VD) just grew over few days filling whole 600 GB of data because of logs set to DEBUG.

So what will be the cons and of virtual disk growing overtime?

  • obviously, more space allocated at expensive storage for VMs
  • more obviously, when you’re using any kind of backup software, you’re forced to write and store in multiple copies the data you really doesn’t need
  • CBT (Change Block Tracking) Table is bigger to process, with every move
  • more network traffic with every backup job you have
  • live ‚shared nothing’ migration times grows just out of proportions. If you have a small machine with 20GB data on 600 GB sized disk, you will have to transfer this whole fatso over you network to other machine. Even with compression set at live migration, it is just really unwanted.

So what can we do? We can just zero the data you’re not using and Hyper-v cmdlets  will take the rest.

You have to plan downtime for the machine, but according to my tests, zeroing machines with 600 GB took 15 to 30 minutes. With smaller sizes it is just matter of single minutes.

Before you go:
– plan your downtime, compacting should not to be interrupted
– take extra caution. Zeroing important data or uneeded data it’s just a matter of mistake.
– delete all snapshots/checkpoints
– make sure you converted VHD to VHDX (optional)
– make sure your disk is set as dynamic disk
– make sure you have enough room for compacting or resizing. Remember – if you have 600 GB virtual disk, during this process it may grow to this size.
– remember that compacting deletes CBT table for backup software – next backup will be a Full Backup.

The most usable zeroing ways I found was:

Offline methods

Cons
– longer downtime
Pros
– more accurate (no more background write)
– faster (no more background write)
– smaller risk of processes failure due to ‚out of space’ event

  • zerofree for Linux ext2/ext3/ext4 disks
  • ntfswipe for Windows based disks
  • dd for both Linux and Windows based disks or exotic fs (btrfs/xfs)

Online methods
Cons
– less accurate (background write  is still happening)
– machines became slower or unresponsible
– slower process
– risk of applications failing due to ‚out of space’ events
Pros
– smaller downtime

– SDelete or CCleaner for Windows based disks
– dd for Linux based disks

 

Phase I – Zeroing Offline

Offline zeroing (done with System Rescue CD 4.x)

  • Delete all uneeded data (logs, temps, bigfiles, dowloads, caches)
  • Umount all ext2/3/4/ntfs volumes
  • for NTFS volume: ntfswipe -av /dev/volume_name
  • for ext2/3/4 volume: zerofree -v /dev/volume-name
  • for LVM: vgchange -a y;zerofree -v /dev/mapper/volume_name
Zeroing swap space:
# swapoff -a

# free
total used free shared buffers cached
Mem: 8056340 2643132 5413208 155072 606916 914796
-/+ buffers/cache: 1121420 6934920
Swap: 0 0 0

# blkid |grep swap
/dev/sdb2: UUID="adad0488-3b67-4444-b792-6a1a775b8821" TYPE="swap"
# dd if=/dev/zero|pv -treb|dd of=/dev/sdb2 bs=8192
dd: error writing ‘/dev/sdb2’: No space left on device
1,91GB 0:01:04 [30,3MB/s]
249981+4 records in
249980+4 records out
2047868928 bytes (2,0 GB) copied, 67,931 s, 30,1 MB/s

#mkswap /dev/sdb2 -U "adad0488-3b67-4444-b792-6a1a775b8821"
Setting up swapspace version 1, size = 1999868 KiB
no label, UUID=adad0488-3b67-4444-b792-6a1a775b8821
# swapon -a

# free
 total used free shared buffers cached
Mem: 8056340 3309648 4746692 159844 1112232 919708
-/+ buffers/cache: 1277708 6778632
Swap: 1999868 0 1999868

Phase I – Online zeroing

1. Delete all uneeded data (logs, temps, bigfiles, dowloads, caches)

for Windows machine
sdelete -z letter:

Linux machine
#dd if=/dev/zero|pv -treb|dd of=/file.zero bs=4096;sync;sync;rm -rfv /file.zero;sync

Phase II – Compacting

1. Shutdown the machine

For System Center VMM 2012 R1/R2

Workspace 1_107
For Hyper-V powershell

Optimize-VHD -Path path_to_vhdx_file.vhdx -Mode Full

 

Workspace 1_108
——-
System Rescue CD – http://www.sysresccd.org/Download
SDelete – http://technet.microsoft.com/en-us/sysinternals/bb897443.aspx
CCleaner Portable – https://www.piriform.com/ccleaner/builds
zerofree – http://manned.org/zerofree/00be91ab

Written by marcinbojko

Sierpień 3, 2014 at 13:10

Jak przyspieszyć Windows 7 na dysku Seagate ST2000DM001 – przynajmniej 2 razy ;)

Od pewnego czasu (czytaj od przenosin na nowy HDD – jak w tytule) zastanawiała mnie ślamazarna wydajność mojego OS (W7 Pro). Niby wszystkie testy ok, partycje, odchudzone dane, kopiowanie dużych plików leciutko poniżej normy, kopiowanie malych plików = tragedia. Start systemu – 15-20 sekund, oraz przynajmniej kilka minut po logowaniu, podczas których system dosłownie stawał się nieresponsywny. Jako iż drażnił mnie ten temat, po ostatnich doświadczeniach z ZFS (NAS4FREE FTW) i 4k drives, postanowiłem sprawdzić w czym zacz.

Zaczynając od artykułu w KB 2510009 Microsoftu: http://support.microsoft.com/kb/2510009

Podstawowy fsutil zwrócił mi:

C:\Users\mbojko>fsutil fsinfo ntfsinfo c:
Numer seryjny woluminu NTFS: 0x38ccb5dbccb5941a
Wersja: 3.1
Liczba sektorów: 0x0000000012bef4f9
Całkowita liczba klastrów: 0x000000000257de9f
Klastrów wolnych: 0x0000000001227e24
Całkowita liczba zarezerwowanych: 0x00000000000005c0
Bajtów na sektor: 512
Bajtów na sektor fizyczny: 4096
Bajtów na klaster: 4096
Bajtów na segment rekordów pliku: 1024
Klastrów na segment rekordów pliku: 0
Prawidłowa długość danych tabeli MFT: 0x000000000e940000
Początkowa wartość LCN tabeli MFT: 0x00000000000c0000
Początkowa wartość LCN drugiej tabeli MFT: 0x0000000000000002
Początek strefy tabeli MFT: 0x000000000060e460
Koniec strefy tabeli MFT: 0x000000000060e5e0
Identyfikator menedżera zasobów: C66A7F5D-EF4B-19E2-9CE9-FDD9CB10E836

Zgodnie z tabelą z powyższego artykułu oznacza to Advanced Format.

Dalej, sprawdziłem obecność hotfixa: 2553708 – był zainstalowany.

Grzebiąc odrobinę niżej, znalazłem prehistoryczny firmware w swoim HDD

Rozwiązaniem był upgrade fw do wersji CC4H – dostępny tutaj: http://knowledge.seagate.com/articles/en_US/FAQ/223651en

Mniej więcej 10 sekund po wpisaniu hasła, system jest responsywny i gotowy do pracy 😉

 

 

Written by marcinbojko

Październik 19, 2013 at 17:59

Napisane w Uncategorized

Tagged with , ,

Cykl artykułów na blogu AVG – Co musisz wiedzieć o backupie danych? Część 3

Written by marcinbojko

Lipiec 2, 2013 at 20:36

Cykl artykułów na blogu AVG – Co musisz wiedzieć o backupie danych? Część 2

Written by marcinbojko

Czerwiec 27, 2013 at 19:03

Cykl artykułów na blogu AVG – zachęcam do przejrzenia. Część I – Co warto wiedzieć o wykonywaniu kopii zapasowych.

Część I – http://blog.avg.pl/?p=2320

Written by marcinbojko

Czerwiec 19, 2013 at 19:52

Box.com a backup/synchronizacja plików.

W poniższym wpisie chciałbym pokazać Wam jak w krótki sposób zamienić sobie usługę box.com w dosyć wydajne archiwum danych (dla klienta Windowsowego)

Ten sam sposób działa także z popularnym Dropboxem (nie testowałem ze Skydrive i GoogleDrive) – zarówno w kliencie dla systemów Windows jak i Linux.

Dlaczego box.com a nie pozostałe wymienione usługi? W zasadzie z bardzo prostej przyczyny – wrodzonego skąpstwa 😉 Otóż udało mi się trafić na Happy Hours w box.com, gdzie zakładając konto i logując się na nie z dowolnego urządzenia z Androidem dostawaliśmy 50GB przestrzeni gratis.

Powtórzę: 50GB GRATIS a nie 2 GB/5GB jak u konkurecji. Wykorzystując więc Dropboxa do synchronizacji plików pomiędzy urządzeniami, mając 50 GB chmury wolne, aż prosi się to o wykorzystanie tej przestrzeni do backupu ważnych plików posiadanych w sporych ilościach. Dla mnie na pewno są to pliki książek, zdjęć i filmów rodzinnych.

Na początek trochę teorii. Klient pod Windows zakłada domyślnie katalog (można to zmienić) w „%userprofile%\documents\my box files” – po ludzku, w katalogu użytkownika, w ‚Moich dokumentach’ pojawia się „My Box Files”. Wszystko co wrzucimy do tego katalogu zostanie zsynchronizowane z chmurą box.com – identycznie jak w przypadku Droboxa. Co jednak w sytuacji gdy pliki te mamy rozsiane na innych volumenach/dyskach i nie zamierzamy tego zmieniać? Wykorzystamy zjawisko (wspólne dla Win/Linux) linków symbolicznych.

Odrobina teorii dla chcących: http://pl.wikipedia.org/wiki/Dowi%C4%85zanie_symboliczne

Co chcemy osiągnąć?

1. W katalogu „%userprofile%\documents\my box files”  pojawią się podkatalogi, które chcemy synchronizować z chmurą.

2. Na dysku systemowym nie ubędzie nam miejsca – nawet jeżeli wykonamy linki do katalogów zbliżonych pojemnością do magicznych 50GB

3. Każda zmiana w katalogach rozsianych po innych dyskach/partycjach zostanie uwzględniona w procesie synchronizacji z box.com (z opcją: pozostawić te skasowane czy też synchronizować zmiany)

boxsync

Jak miałoby to wyglądać u mnie ?

boxsync3

Uruchamiamy ‚CMD’ jako administrator

mklink /D „C:\Users\mbojko\Documents\My Box Files\WinUAE” „L:\WINUAE”

mklink /D „C:\Users\mbojko\Documents\My Box Files\Books” „F:\Media\Books\GoodBooks\Sorted”

mklink /D „C:\Users\mbojko\Documents\My Box Files\Zdjęcia” „E:\Images\Zdjęcia”

mklink /D „C:\Users\mbojko\Documents\My Box Files\Videos” „D:\Video”

Efekt:

łącze symboliczne utworzone dla C:\Users\mbojko\Documents\My Box Files\WinUAE <<===>> L:\WINUAE

łącze symboliczne utworzone dla C:\Users\mbojko\Documents\My Box Files\Books <<===>> F:\Media\Books\GoodBooks\Sorted

łącze symboliczne utworzone dla C:\Users\mbojko\Documents\My Box Files\Zdjęcia <<===>> E:\Images\Zdjęcia

łącze symboliczne utworzone dla C:\Users\mbojko\Documents\My Box Files\Videos <<===>> D:\Video

2013-04-13 19:00 <DIR> .
2013-04-13 19:00 <DIR> ..
2013-04-13 18:59 <SYMLINKD> Books [F:\Media\Books\GoodBooks\Sorted]
2013-04-13 18:45 491 781 Box Sync ReadMe.pdf
2013-04-13 19:00 <SYMLINKD> Video [D:\Video]
2013-04-13 18:58 <SYMLINKD> WinUAE [L:\WINUAE]
2013-04-13 19:00 <SYMLINKD> Zdjęcia [E:\Images\Zdjęcia]

boxsync2

Written by marcinbojko

Kwiecień 20, 2013 at 10:38

%d blogerów lubi to: