Blog Marcina Bojko

Linux,Windows,serwer, i tak dalej ;)

Posts Tagged ‘microsoft

And I landed on a BitBucket…

Written by marcinbojko

Sierpień 27, 2016 at 09:47

Blogi które śledzę – MVP i nie tylko.

Nie jest tajemnicą, iż uważam Microsoft za firmę, w której myśl inżynieryjna jest tłamszona przez część schizofreniczno-marketoidalną, co widać w ich kolejnych posunięciach. Brak jakiejkolwiek możliwości wpływania przez inżynierów na swoje produkty, częste zmiany zasad gry w połowie rozgrywki, paranoidalne trzymane się jedynie rynku USA (nie chcę nawet komentować wykastrowanego XBL w PL). Po kolejnej konferencji, na której widzę te same twarze „celebrytów-evangelistów” wiem, że nic się w tej sytuacji nie zmieni na dobre.

Tym, którzy nie widzieli – polecam, to niezły otwieracz oczu:

Rynek i chęć współpracy z produktami Microsoftu ratują dla mnie REALNI (nie ewangeliczni) MVP – ludzie zatrudnieni na co dzień w przeróżnych firmach, zajmujący się realnymi problemami, rozwiązującymi je i dzielącymi się tym z całym światem.

Swoją przygodę z Hyper-V zaczynałem od próby weryfikacji różnic pomiędzy produktami konkurencji – język Technetu to beznadziejna maszynowa nowomowa, która w żaden sposób nie wyjaśnia jak osiagnąć to co próbujesz. Śmiało moge powiedzieć iż siedziałbym jeszcze w epoce IT łupanego, gdyby nie kontakt z MVP – ludzmi, którzy częściowo bezinteresownie przeprowadzali nas przez meandry korporacyjnych zawiłości.

Obecnie, aby pozostać w obiegu (na bełkot Microsoftu szkoda mi czasu) sledzę:

  • Mało przydatne:

System Center: Virtual Machine Manager http://blogs.technet.com/b/scvmm/

W zasadzie tylko komunikaty o poprawkach i opisy rozwiązań problemów, już dawno przez społeczność rozwiązanych.

Virtualisation Bloghttp://blogs.technet.com/b/virtualization/default.aspx

Jak wyżej.Niestety.

  • Obowiązkowe (Microsoft, Hyper-V, File Server)

Łukasz Kałużnyhttp://blog.kaluzny.pro/ – Blog Łukasza był dla mnie początkiem próby zrozumienia działania i przewagi HyperV. Chociaż ostatnio pisze rzadziej, sposób w jaki przekazywał powodował iż na początkowym etapie bywał po prostu niezastąpiony.

Aidan Finnhttp://www.aidanfinn.com/ – wyszczekany, niepoprawny politycznie, hejter Linuksów i VMWare. Wrzuca zarówno rozwiązania swoje, jak i w formie agregatora newsów rzeczy związane z Hyper-V, Azure. Nie boi się w mało delikatny sposób zaznaczyć kto w Microsofcie ma problemy z głową przy wprowadzaniu (tak, tak! więcej zamieszania w licencjonowaniu i supporcie) nowości.

Ben Armstronghttp://blogs.msdn.com/b/virtual_pc_guy/ – Manager programu Hyper-V. Gość z niesamowitą wiedzą, dzielący się DZIAŁAJĄCYMI rozwiązaniami w ramach oficjalnego uczestnictwa w programie Microsoftu.

Jose Barreto’s Bloghttp://blogs.technet.com/b/josebda/default.aspx – kolejny uczestnik programu Microsoftu (FIle Server Team). Jego posty z kolei skupiają się na rozwiązaniach z zakresu Storage. Nie ma co jednak zapominać iż Storage to SILNY i KLUCZOWY parametr dobrego hypervisora.

Didier Van Hoye ‚Working Hard in IT’http://workinghardinit.wordpress.com/ tam gdzie zawiodą oficjalne sposoby Microsoftu, lub osoby powyżej mają związane ręce z powodów oficjalnych, tam wkracza Didier. Jego artykuły mogą uratować Ci życie (lub karierę) w przypadku kolejnego świetnego pomysłu marketingu czy kierownictwa Microsoftu. Dobrze Wam radzę – wrzucać jego notki do Evernota czy Pocketa bo w chwili kryzysu mamy rozwiązanie podane jak na tacy.

Michael Rueefli AKA Dr.MIRUhttp://www.miru.ch/ Michael skupia się na najbardziej niedocenionym obecnie pomyśle Microsoftu czyli HyperV Replica. Z tym rozwiązaniem jest świetnie jak działa – jak nie działa, to na 99% Michael JUŻ wie dlaczego i co zrobić.

Kristian Nesehttp://kristiannese.blogspot.com/ – Azure i HyperV

  • Obowiązkowe – sensowni ludzie w PL

Agregator Ziemborahttp://ziembor.pl/plitproblogs/ – Skupia wpisy profesjonalistów w PL piszących dla innych, celem pomocy. Nieopatrznie powiem, iż poniższy blog jest w nim obecny.

Chociaż w żaden sposób nie pretenduję do powyższej czołówki (charakter mojej pracy nie pozwoli mi specjalizować się tylko w kilku wybranych technologiach) chciałbym wierzyć (i wierzę, patrząc na statystyki i maile ze swojego bloga) iż komuś tak sprezentowane rozwiązanie przyda się w krytycznej chwili.

Serdeczne podziękowania dla Michała Panasiewicza (z którym sprzeczam się równie często, co namiętnie) jako inspiracji dla powyższego wpisu.

I jak wyżej – szanowni Microsoftowicze – MVP są naprawdę jedynym powodem, który przepycha mnie przez codzienne obcowanie z waszymi technologiami.

Written by marcinbojko

Wrzesień 7, 2014 at 19:19

Napisane w open source, work

Tagged with , , , ,

Compacting Virtual Disks in System Center Virtual Machine Manager 2012 R2 or Hyper-V 2012 R2

As we all know – disk space isn’t free. If you allocate disk space to your virtual machine, you always want to allocate proper, well-balanced size to shorten future downtimes. But what is proper and balanced you ask?  There is no short answer to this, but if you’re  IT person, you always will try to allocate more than is needed right at the moment.  The decision is : should I use static or dynamic disks?

For me, there is no really need to use static disks anymore as there is no real speed difference. So, the real pro using dynamic disk is their smaller size.

In production environment, using Microsoft’s hypervisor, we can expect our VM to grow over time. During the nature of virtual machines and virtual disks, the real data machine uses are not the same numbers as virtual disk sizes. It is happening due to hypervisor behaviour – deleting all data from OS in virtual machine is no more than throwing away and index card from your book. The written data are still there, so there is no easy, automated way to compact a virtual disk.

Hypervisor however, tries to allocate in a first place, blocks marked as used. So the real expanding is happening when you’re constantly changing your data, without deleting them first. The great example is with databases, log and temporary trash disks and just plain and simple oversizing. I’ve had a case when relativly small machine (20 GB CentOS with a 600 GB VD) just grew over few days filling whole 600 GB of data because of logs set to DEBUG.

So what will be the cons and of virtual disk growing overtime?

  • obviously, more space allocated at expensive storage for VMs
  • more obviously, when you’re using any kind of backup software, you’re forced to write and store in multiple copies the data you really doesn’t need
  • CBT (Change Block Tracking) Table is bigger to process, with every move
  • more network traffic with every backup job you have
  • live ‚shared nothing’ migration times grows just out of proportions. If you have a small machine with 20GB data on 600 GB sized disk, you will have to transfer this whole fatso over you network to other machine. Even with compression set at live migration, it is just really unwanted.

So what can we do? We can just zero the data you’re not using and Hyper-v cmdlets  will take the rest.

You have to plan downtime for the machine, but according to my tests, zeroing machines with 600 GB took 15 to 30 minutes. With smaller sizes it is just matter of single minutes.

Before you go:
– plan your downtime, compacting should not to be interrupted
– take extra caution. Zeroing important data or uneeded data it’s just a matter of mistake.
– delete all snapshots/checkpoints
– make sure you converted VHD to VHDX (optional)
– make sure your disk is set as dynamic disk
– make sure you have enough room for compacting or resizing. Remember – if you have 600 GB virtual disk, during this process it may grow to this size.
– remember that compacting deletes CBT table for backup software – next backup will be a Full Backup.

The most usable zeroing ways I found was:

Offline methods

Cons
– longer downtime
Pros
– more accurate (no more background write)
– faster (no more background write)
– smaller risk of processes failure due to ‚out of space’ event

  • zerofree for Linux ext2/ext3/ext4 disks
  • ntfswipe for Windows based disks
  • dd for both Linux and Windows based disks or exotic fs (btrfs/xfs)

Online methods
Cons
– less accurate (background write  is still happening)
– machines became slower or unresponsible
– slower process
– risk of applications failing due to ‚out of space’ events
Pros
– smaller downtime

– SDelete or CCleaner for Windows based disks
– dd for Linux based disks

 

Phase I – Zeroing Offline

Offline zeroing (done with System Rescue CD 4.x)

  • Delete all uneeded data (logs, temps, bigfiles, dowloads, caches)
  • Umount all ext2/3/4/ntfs volumes
  • for NTFS volume: ntfswipe -av /dev/volume_name
  • for ext2/3/4 volume: zerofree -v /dev/volume-name
  • for LVM: vgchange -a y;zerofree -v /dev/mapper/volume_name
Zeroing swap space:
# swapoff -a

# free
total used free shared buffers cached
Mem: 8056340 2643132 5413208 155072 606916 914796
-/+ buffers/cache: 1121420 6934920
Swap: 0 0 0

# blkid |grep swap
/dev/sdb2: UUID="adad0488-3b67-4444-b792-6a1a775b8821" TYPE="swap"
# dd if=/dev/zero|pv -treb|dd of=/dev/sdb2 bs=8192
dd: error writing ‘/dev/sdb2’: No space left on device
1,91GB 0:01:04 [30,3MB/s]
249981+4 records in
249980+4 records out
2047868928 bytes (2,0 GB) copied, 67,931 s, 30,1 MB/s

#mkswap /dev/sdb2 -U "adad0488-3b67-4444-b792-6a1a775b8821"
Setting up swapspace version 1, size = 1999868 KiB
no label, UUID=adad0488-3b67-4444-b792-6a1a775b8821
# swapon -a

# free
 total used free shared buffers cached
Mem: 8056340 3309648 4746692 159844 1112232 919708
-/+ buffers/cache: 1277708 6778632
Swap: 1999868 0 1999868

Phase I – Online zeroing

1. Delete all uneeded data (logs, temps, bigfiles, dowloads, caches)

for Windows machine
sdelete -z letter:

Linux machine
#dd if=/dev/zero|pv -treb|dd of=/file.zero bs=4096;sync;sync;rm -rfv /file.zero;sync

Phase II – Compacting

1. Shutdown the machine

For System Center VMM 2012 R1/R2

Workspace 1_107
For Hyper-V powershell

Optimize-VHD -Path path_to_vhdx_file.vhdx -Mode Full

 

Workspace 1_108
——-
System Rescue CD – http://www.sysresccd.org/Download
SDelete – http://technet.microsoft.com/en-us/sysinternals/bb897443.aspx
CCleaner Portable – https://www.piriform.com/ccleaner/builds
zerofree – http://manned.org/zerofree/00be91ab

Written by marcinbojko

Sierpień 3, 2014 at 13:10

Microsoft System Center 2012 R2 VMM Update Rollup 2 and failed performance counters (Assigned Memory/Demanded Memory set to 0)

Strange thing happened after System Center 2012 R2 Virtual Machine Manager Rollback Update 2 – most fields with dynamic performance counters were not updated at all.

It looked like this:

Image
I did try to:

  • reboot of Hyper-V hosts and/or SCVMM 2012 R2 instance (no changes)
  • refresh all host and virtual machines (no changes)
  • remove host from SCVMM console and re-add with ‚Reassociate with this host’ option – It looks like re-installing VMM agents worked.

But in production environment, removing and re-adding all hosts is quite risky bussiness (and what about library and template servers?), so maybe we will try to force re-install scvmm agents?
Let’s look for a most recent one

Image

Image

As you can see on 2014-04-28 with Rollback Update 2 agent has changed to version (3.2.7634.0) but was not refreshed or upgraded on all hosts. I decided to do it manually.

Quick Solution:

  1. Copy vmmagent.msi from 3.2.7634.0 directory to a Hyper-V host or shared network path (for me it was users’s home mounted disk).
  2. RDP to Hyper-V host or do it in any remote execute way you want –
  3. execute (on Hyper-V host) :
    wmic product where name='Microsoft System Center Virtual Machine Manager Agent (x64)' call uninstall
  4. execute (on Hyper-V host) :
    msiexec /i your_path_to_files\vmmAgent.msi 
    or
    msiexec /i your_path_to_files\vmmAgent.msi /passive
  5.  Wait few minutes (5-10)
  6. Goto SCVMM, choose Hyper-v host, choose ‚Properties/Status’, click ‚Refresh’Image
  7. Wait few minutes (5-10)
  8. Refresh host and virtual machines.Image

Dear Microsoft. I couldn’t find a proper way to do it with GPO (update failed without removing agent first) or any other way. Do you understand that doing it with a dozens or hundreds of Hyper-V host is not funny, and in a kinda way is crooked thinking?

Written by marcinbojko

Maj 2, 2014 at 16:26

Napisane w work

Tagged with , , , , ,

Cicha rewolucja – Linux Mint 16 jest tym czym Ubuntu zawsze chciało być.

Jak wiele razy pisałem – nie przepadałem za dystrybucjami Linuxa tworzonymi specjalnie pod desktopy. Gdzieś mniej więcej w środku wojny o scheduler (2007/2008) dystrybucje dzieliły się na szybkie oraz użyteczne 😉 W gałęzi numer jeden królowały Debiany, Arch oraz Gentoo, w gałęzi drugiej o palmę pierwszeństwa walczyły OpenSuSe, Ubuntu i gdzieś po cichu Fedora.

Pamiętam wtedy mój zachwyt dystrybucją Linux Mint – Glora (v7) wydana w edycjach Gnome/KDE a następnie Fluxbox/Xfce gdzieś koło połowy 2009 roku. Okazało się iż można było wykorzystać gotowe paczki z innej dystrybucji (Ubuntu/Debian), zrzucając żmudną robotę dopasowywania pakietów i przebudowywania zależności na Canonical, samemu zajmując się ulepszaniem użyteczności oraz pracami koncepcyjnymi.

Stopniowo, ścieżka którą obrał zespół Minta – słuchanie głosów swoich użytkownika doprowadziła do postania edycji Helena (v8), Isadora (v9), Julia (v10) kończąc edycją Katya (v11) w 2011 roku. W tym czasie Ubuntu chaotycznie zmieniało środowisko (Gnome Shell/Unity), tematy, domyślne oprogramowanie (wyrzucając chociażby Gimpa uznanego przez nich za ‚zbyt skomplikowany’, czy zastępując komunikator Pidgin mniej znanym Empathy) co dla większości z nas było bardzo męczące.

2014-01-Blog-Cicha-rewolucja-1

Tak głębokie ingerencje w drzewa pakietów i zależności oraz stopniowa walka z przyzwyczajeniami użytkowników spowodowały iż edycje 10.10/11.04 przez wielu uznane zostały za bardzo niestabilne, ociężałe i kompletnie rozbieżne z oczekiwaniami użytkowników. Fora pękały od porad: jak usunąć daną funkcjonalność, jak dodać coś co zostało w Ubuntu pominięte, oraz co zrobić w przypadku gdy po kolejnej aktualizacji system nie nadawał się do użytku: bądź to odmawiał dalszej współpracy lub też usuwał wszystkie tweaki, które użytkownicy nazbierali do tej pory.

Wprowadzenie interfejsu Unity było dla wielu z nich ostatnią kroplą przepełniającą czarę goryczy – co kilka lat później otrzymał Microsoft wprowadzając interfejs Modern UI/Metro w systemie Windows 8. Niestety, alternatywy dla Unity były równie nieciekawe: zarówno KDE jak i Gnome Shell/Gnome 3 cierpiały na klasyczne choroby wieku open-source: nowe funkcjonalności kosztem stabilności.

2014-01-Blog-Cicha-rewolucja-5

Team Linux Mint, po raz kolejny podjął decyzję słuchając swoich użytkowników, decydując się na wprowadzenie autorskiego UI – Cinnamon (fork Gnome Shell) oraz forka Gnome 2 – MATE. Tym sposobem, dla słabszych maszyn lub dla użytkowników przyzwyczajonych do klasyki Gnome, pozostał właśnie MATE. Dla posiadaczy maszyn ze wsparciem grafiki 3D oraz dla zwolenników nowych funkcjonalności w starej otoczce przeznaczony był interfejs Cinnamon.

Nie obyło się jednak bez problemów – Cinnamon wraz z managerem plików Nemo (fork Nautilusa wprowadzony w edycji 1.6) wprowadzony oficjalnie w roku 2012 w edycji Maya, był również mało stabilny, przynajmniej w początkowych fazach tworzenia, wciąż silnie zależąc od Gnome. Pierwsze naprawdę stabilne i użyteczne funkcje pojawiły się w edycji Linux Mint 14 (Nadia), stopniowo kontynuowane w bardzo niestabilnej edycji Mint 15 (Olivia). W 2013 roku, wydając edycję Mint 16 (Petra) twórcy wprowadzając wersję Cinnamon 2.0 obwieścili, iż do działania nie wymaga on już w żadnym stopniu środowiska Gnome (w przeciwieństwie do Unity czy Gnome Shell). W tej edycji Cinnamon stał się pełnoprawnym środowiskiem desktopowym, pozwalając na uniezależnienie się od coraz mniej stabilnego pierwowzoru.

2014-01-Blog-Cicha-rewolucja-2

To własnie Linux Mint 16 (Petra) określany przeze mnie „cichą rewolucją” stał się tym, czym od wielu lat próbowało zostać Ubuntu – dystrybucją, której łatwość instalacji, kompletność oraz możliwość uruchomienia większości opcji „out-of-the-box” spowodowały wzmożone zainteresowanie środowisk do tej pory Linuksa unikających. Widać to dosyć wyraźnie na wykresach organizacji DistroWatch – od 6 miesięcy Linux Mint podwoił dystans jaki dzielił od niego Ubuntu.

Od paru lat jako użytkownik desktopowego Linuksa (OpenSuSe/Mint/Ubuntu) swoje pierwsze kroki po instalacjach wszystkich tych systemów zaczynałem od wielu tweaków – od wyłączenia nieszczęsnych fortune cookies w terminalu zaczynając, poprzez aktualizację managerów pakietów, dodawanie nowych repozytoriów załatwiających to, co edycje stabilne załatwić nie mogły, na nowym kernelu kończąc. I wyobraźcie sobie moje zdziwienie, gdy w edycji 16, przenosząc większość swojego katalogu /home, dorzucając dodatkowe repozytoria Noobslabs (ikonki), dorzucając kilka pakietów z poza repo (Apache Directory Studio, Sublime Text, PAC Manager, Double Commander) po raz pierwszy od kilku lat mogę powiedzieć: wszystko działa.

2014-01-Blog-Cicha-rewolucja-3

Zaczynając od faktu, iż mój Linux zmieścił się na dysku SSD wykorzystywanym przez Windows 7/8 mojego ultrabooka jako cache (16 GB). Dzięki temu w niecałe 10 sekund po uruchomieniu komputera jestem w stanie przystąpić do pracy.

Jestem w stanie bez żadnej filozofii podłączyć urządzenia oparte na systemie Android, nawet te uparcie wspierające tylko MTP. Lepiej niż w systemie Windows, mogę dowolnym filemanagerem buszować po ich zasobach, podczas gdy Eksplorator Windows dawał mi jedynie możliwość copy/paste, co plik przerywając komunikatem ‚konwertować czy nie?’.

Bez żadnych problemów korzystam z zasobów domenowych (w tym firmowego DFS’a), dobrodziejstw rozwiązań Fortigate czy Cisco (tego ostatniego oczywiście przez open-source, bo sami są za leniwi aby coś stworzyć)
WINE bez problemów uruchamia moje edycje Microsoft Office (skończyłem na kupieniu MS Office 2010), od dawna jednak polegam – również w edycji Windowsowej na doskonałym Kingsoft Office (swoją drogą to paranoja, iż cały pakiet  a la Office można zmieścić w 120 MB, podczas gdy jego poprzednik zaczyna od paru giga śmiecia).

Synapse wraz z pluginami jak Zeitgeist działa lepiej, szybciej i wydajniej niż Windows Search/Indexing.

Doskonały PAC Manager – do zarządzania sesjami remote (vnc/rdp/ssh/telnet/serial/itp/itd), Double Commander powielający 1:1, łącznie z pluginami, wszystkie funkcje mojego Total Commandera, Thunderbird+Lightning, Chrome – wymieniać można tak w nieskończoność.

2014-01-Blog-Cicha-rewolucja-4

Korzystąjąc z dobrodziejstw rozwiązań chmurowych, większość moich danych jest swobodnie wymienialna pomiędzy systemami operacyjnymi. Kończąc pracę na Linuksie, dane zapisywane są do odpowiednio zamapowanych katalogów Dropboxa (lub korzystając z rozwiązań natywnych jak Chrome, Last Pass,Evernote czy Xmarks). Chwilę później mogę podjąć ją na systemie Windows, kontynuując tam gdzie skończyłem.

Ba, powoli ostatni bastion oporu jakim są gry został skutecznie nadgryziony (bo o obaleniu jeszcze mówić nie można) poprzez wprowadzenie najpierw PlayOnLinux a ostatnio klienta Steam, gdzie liczba gier zwiększa się z miesiąca na miesiąc.

NetworkManager z pakietami Wireshark, Zenmap nping czy dhcp-probe pozwalają mi na szybsze dopasowanie się do profili sieciowych i diagnostykę pojawiających się firmowych problemów. Z Linuxa daje się zarządzać systemami VMWare, Microsoft (Hyper-V , Windows Server, System Center) czy Citrix Xen. Dzięki dobrodziejstwu maszyn wirtualnych znika ostatnia bariera tam, gdzie do tej pory wydawało się iż Linux nie ma wstępu.

Faktycznie przez ostatnie parę miesięcy chyba tylko dwukrotnie musiałem skorzystać z faktu posiadania dwóch systemów: w obu przypadkach był to software przeznaczony do rootowania telefonów, co ciekawsze drugi z nich stanowił zlepek cygwina i unixowych portów jak wget/curl czy dd 🙂

Kończąc na dzisiaj: z wprowadzeniem wieloplatformowych aplikacji i środowisk jak Chrome, Dropbox, Evernote czy wspomniany Kingsoft Office, sam system operacyjny zaczyna spełniać rolę, którą do tej pory pełnił kernel.  Zadaniem OS pozostaje sprawne zarządzanie elementami hardware, przydzielanie i zwalnianie zasobów oraz podstawowe możliwości interfejsu użytkownika.

Zawsze stałem na stanowisku: Linux to nie OS – to zestaw narzędzi do sporządzenia Twojego idealnego, dopasowanego w 100% systemu operacyjnego. Dlatego, moim skromnym zdaniem, systemy skrojone tak aby działały na określonym hardware, w określony, wybrany TYLKO przez twórców sposób, gromadzą ludzi, którzy spędzają więcej czasu na walkę z tymże OS aby dopasować go do ludzkiego sposobu myślenia, niż my, fandom Linuksowy, który posiadając gotowe narzędzia, dopasowuje OS do swoich potrzeb.

I tak, mam także na myśli Canonical, którego decyzji już chyba nikt nie rozumie (wie o tym każdy, kto usiłował pozbyć się Unity czy też sponsorowanych przez Amazon wyników jego wyszukiwania).

Z Linuksem Mint 16, ta praca u podstaw jest o wiele łatwiejsza.

Aby jednak nie było tak dobrze, powiem wam Co w roku 2014 wciąż mnie w Linuksach uwiera i denerwuje. Ale, to już inna bajka.

Written by marcinbojko

Styczeń 19, 2014 at 16:16

Hyper-V R2 – ciężki w zarządzaniu? Wcale nie…

Dowolny Windows 8, Windows Server (2008/2012/R2), RemoteDesktop, darmowe aplikacje 5Nine – to wszystko w porównaniu do kobyły ‚klienta’ VMware.

A kopiowanie plików za pomocą RemoteDesktop ?

# net use * \\tclient\mój_dysk

 

Written by marcinbojko

Styczeń 12, 2014 at 19:17

Napisane w Uncategorized

Tagged with , , ,

Jak przyspieszyć Windows 7 na dysku Seagate ST2000DM001 – przynajmniej 2 razy ;)

Od pewnego czasu (czytaj od przenosin na nowy HDD – jak w tytule) zastanawiała mnie ślamazarna wydajność mojego OS (W7 Pro). Niby wszystkie testy ok, partycje, odchudzone dane, kopiowanie dużych plików leciutko poniżej normy, kopiowanie malych plików = tragedia. Start systemu – 15-20 sekund, oraz przynajmniej kilka minut po logowaniu, podczas których system dosłownie stawał się nieresponsywny. Jako iż drażnił mnie ten temat, po ostatnich doświadczeniach z ZFS (NAS4FREE FTW) i 4k drives, postanowiłem sprawdzić w czym zacz.

Zaczynając od artykułu w KB 2510009 Microsoftu: http://support.microsoft.com/kb/2510009

Podstawowy fsutil zwrócił mi:

C:\Users\mbojko>fsutil fsinfo ntfsinfo c:
Numer seryjny woluminu NTFS: 0x38ccb5dbccb5941a
Wersja: 3.1
Liczba sektorów: 0x0000000012bef4f9
Całkowita liczba klastrów: 0x000000000257de9f
Klastrów wolnych: 0x0000000001227e24
Całkowita liczba zarezerwowanych: 0x00000000000005c0
Bajtów na sektor: 512
Bajtów na sektor fizyczny: 4096
Bajtów na klaster: 4096
Bajtów na segment rekordów pliku: 1024
Klastrów na segment rekordów pliku: 0
Prawidłowa długość danych tabeli MFT: 0x000000000e940000
Początkowa wartość LCN tabeli MFT: 0x00000000000c0000
Początkowa wartość LCN drugiej tabeli MFT: 0x0000000000000002
Początek strefy tabeli MFT: 0x000000000060e460
Koniec strefy tabeli MFT: 0x000000000060e5e0
Identyfikator menedżera zasobów: C66A7F5D-EF4B-19E2-9CE9-FDD9CB10E836

Zgodnie z tabelą z powyższego artykułu oznacza to Advanced Format.

Dalej, sprawdziłem obecność hotfixa: 2553708 – był zainstalowany.

Grzebiąc odrobinę niżej, znalazłem prehistoryczny firmware w swoim HDD

Rozwiązaniem był upgrade fw do wersji CC4H – dostępny tutaj: http://knowledge.seagate.com/articles/en_US/FAQ/223651en

Mniej więcej 10 sekund po wpisaniu hasła, system jest responsywny i gotowy do pracy 😉

 

 

Written by marcinbojko

Październik 19, 2013 at 17:59

Napisane w Uncategorized

Tagged with , ,

%d blogerów lubi to: