Blog Marcina Bojko

Linux,Windows,serwer, i tak dalej ;)

Archive for the ‘Uncategorized’ Category

Win_manage 0.3.7

Looks we’ready to go 🙂

## version 0.3.7 2016-11-13

  • reworked logic with checking and aplying updates
  • reworked logic with notifications when checking for xWindowsUpdateAgentSchedule
  • reformatted `dsc_xfirewall` – according to [](

dsc_profile: Domain,Private

  • improved links in ``

Written by marcinbojko

13 listopada, 2016 at 17:56

Napisane w Uncategorized

Raw, unedited The Foreman/Puppet + Win_manage.

Written by marcinbojko

29 października, 2016 at 17:25

Napisane w Uncategorized, work

Tagged with , , , ,

hv_default – version 1.18

Written by marcinbojko

16 października, 2016 at 19:48

Napisane w Uncategorized

Quick Zabbix (agent/server) migration from 2.2/3.0 to 3.2 (installed from official repository)

  1. Backup your machine (physical/virtual)
  2. Run (for server AND agent)

    # stop services
    systemctl stop zabbix-server
    systemctl stop zabbix-agent
    # clean cache
    yum clean all
    # upgrade releases from 2.x/3.0 to 3.2
    yum upgrade
    # disable additional repository
    yum-config-manager --disable zabbix-non-supported
    # update
    yum update -y
    # clean cache
    yum clean all
    # enable services
    systemctl enable zabbix-server
    systemctl enable zabbix-agent


    # for agents
    systemctl stop zabbix-agent
    yum clean all
    yum upgrade
    yum-config-manager --disable zabbix-non-supported
    yum install zabbix-agent -y
    yum clean all
    systemctl enable zabbix-agent
    systemctl start zabbix-agent

Written by marcinbojko

15 października, 2016 at 14:21

HV-Default – confirmed working with Hyper-V 2016

New version available:

Written by marcinbojko

13 października, 2016 at 18:36

Napisane w Uncategorized, work

Tagged with , ,

Puppet & The Foreman & Powershell DSC – Windows Updates: Neverending story.

Nobody likes Windows Updates even Microsoft itself. But sometimes one should make sure, you have perks your system needs. But, we co do it old fashion way: check, update, reboot, repeat. Boring, and completly not in a way DevOps do.

Again, Win_manage to the rescue.

First we make sure what we want to do:


  dsc_dayofweek: sunday
  dsc_afterhour: 11
  dsc_usenotify: true


  dsc_updatenow: 'true'
  dsc_category: security
  dsc_updatenow: 'true'
  dsc_category: important
  dsc_updatenow: 'true'
  dsc_category: optional


  message: Machine requested a reboot
  when: pending

But what does it do? First, we should prepare update schedule: let’s say, we can start auto-updates on Sunday, after 11 AM (remember 11 AM = 11:00, and 11:00 PM=23:00)

Second: we want to install 3 type of updates: security, important and optional.

Third: we want to auto-reboot our machine (dsc_reboot) and notify us about pending updates count BEFORE and AFTER update patch set (dsc_usenotify: true)

So, we can switch from:




in a time needed to get some music 🙂

Written by marcinbojko

9 października, 2016 at 18:36

Puppet & The Foreman & Powershell DSC – The Road So Far.

During last few weeks I was able to push and heavy test puppet-dsc code in a lots of environments and setups.

We had sysprepped Windows Server 2012 R2 images (different versions, builds and setups), a lots of Windows 10 Professional Workstations (Original, 1511, 1607 builds), few Windows 8.1 Pro – really great statistic sample.

As for now:

  • Windows Server 2012 and Windows 2012 R2 – fully supported
  • Windows 8.1/10 (original)/10 (1511) – fully supported
  • Windows Server 2016/Windows 10 (1607) – unsupported due to parsing bug in Powershell 5.1 – Work in progress
  • Windows 7/8 – not tested
  • Windows 2008 R2 – not tested

Implemented modules:

  • Chocolatey – with features and sources support (adding, removing, modyfing)
  • DSC_WindowsFeature
  • DSC_WindowsOptionalFeature
  • DSC_Service
  • DSC_Environment
  • DSC_Group
  • DSC_xFirewall
  • DSC_Reboot

More code is coming, but this fine set allows you to deploy and manage a lots of types of servers and workstations.

Written by marcinbojko

7 października, 2016 at 19:47

Puppet & The Foreman & Powershell DSC – your System Center in a box :)

Few weeks ago I started a little project – complete Puppet module called: win_manage.

My goal was to manage Windows based machines almost as easy as Linux servers, as little code inside as possible (you know, I am not a developer in any kind). And when I was thinking: KISS is no more possible with this project, I’ve found Puppet Powershell DSC module:

Adding another resources it is just a breeze, the biggest part of work was to test almost every setting provided by Microsoft, to have working examples in day-to-day SysAdmin/DevOP job.

And yes, I know – we have plenty of things like this, sold with different price plans, different support plans and so on. But if you cannot afford pricey tools like Puppet Enterprise or System Center 2012 R2 in your environment, this little project comes to help you 🙂

First things first – why?

  1. We have excellent granularity using Puppet and Foreman architecture without complicated AD GPO with filters.
  2. Nested groups/copying groups helps so much in creating cloned environment
  3. It doesn’t matter what provider do you use: physical, virtual, VMWare,Hyper-V, Azure – it just works.
  4. With additional modules like Chocolatey and our private sources (and private CDNs) the story is completed – no more AD MSI voodoo stuff. Software deployment and maintenance just got really better.
  5. One is is to deploy, second thing is to maintain and manage. Securing running services or making permanent changes in your environment is as much important as just deploy them.
  6. No more ‚just another script’ approach.
  7. Everyone can afford simple machine with simple YAML examples 😉

So my work in progress looks just like this:




Host Groups


Parameters to set

We love YAML driven configuration: setting users, rules, applications is just as easy as writing very light code:

Setting registry:

 dsc_valuename: Password
 dsc_valuedata: af af af af af af af af
 dsc_valuetype: binary
 dsc_valuename: ControlPassword
 dsc_valuedata: af af af af af af af af
 dsc_valuetype: binary

Adding features:

 dsc_ensure: present
 dsc_name: Web-Server
 dsc_includeallsubfeature: true
 dsc_ensure: present
 dsc_name: DSC-Service

Installing and maintaining latest version of packages:

 ensure: latest
 ensure: latest
 ensure: latest
 ensure: latest

So, what to do next? I will be adding additional DSC Resources to module and hopefully will be able to make it public. Stay tuned and keep your fingers crossed 😉


Written by marcinbojko

4 października, 2016 at 19:11

Chocolatey i własne źródło pakietów.

Bez wątpienia – Chocolatey ( jest doskonałym zarządcą pakietów dla systemu WIndows – zwłaszcza w instalacjach DesiredStateConfiguration. Trochę przytłacza mnogość sposobów instalacji pakietów (w zasadzie, każdy pakiet potrafi być oddzielnym kawałkiem kodu), jednak rekompensuje to z nawiązką ich niskim skomplikowaniem.

Owszem, sporo pakietów jest w oryginalnym repozytorium, jednak nie wszystkie pakiety źródłowe posiadają publiczne linki, tak aby można je było umieścić w samym pakiecie.

Rozwiązaniem jest np. tworzenie pakietów w repozytorium, a same binarki trzymać np. 2 miejscach – firmowy intranet oraz linki publiczne.

Ponieważ mnie zawsze brakuje wspomnianych pakietów przedstawiam wam własne źródło, gdzie postaram się uzupełniać przydatne i brakujące pakiety.

Kilka zasad:

  1. Wszystkie pakiety binarne trzymane są w moim Dropboxie – katalog /public/choco.
  2. Wszystkie pakiety binarne podpisane są SHA256
  3. Wszystkie pakiety są weryfikowane przez Virus Total a ich suma SHA256 MUSI zgadzać się z sumą z linka VirusTotal. W opisie pakietu widnieje ich suma kontrolna.
  4. Repozytorium jest publiczne – jeżeli chcesz umieścić swój pakiet – odpowiadasz za niego 🙂

Bez zbędnej zwłoki:

Samo źródło:

Nuget v2:

RSS źródła z pakietami:


Jak dodać źródło do swojego Chocolatey’a?

choco source add -n=NAZWA -s"" --priority=10

Jak zainstalować/aktualizować pakiet?

choco install nazwapakietu -y

choco upgrade nazwapakietu -y


Jak usunąć pakiet?

choco uninstall nazwapakietu -y


Jakie pakiety są w repo?

Na dzień dzisiejszy:

WPS-Office-Personal –

Zabbix-Agent3 –


Pozostałe pakiety przerabiam z sum kontrolnych MD5 na SHA256 co zajmuje mi nieco czasu.



Written by marcinbojko

1 października, 2016 at 12:57

Hyper-V default settings

I decided to make my script public via GitHub. What it does is helping making new Hyper-V installation easier. This little thing helped me in numerous Hyper-V deployments.

Written by marcinbojko

14 lipca, 2016 at 17:39

Napisane w open source, Uncategorized, work

Tagged with ,

Nie ma to jak zrobić porządek z rana ;)


Written by marcinbojko

12 czerwca, 2016 at 13:41

Napisane w Uncategorized

Tagged with ,

Kilka testów różnych dysków SSD …


AS SSD Benchmark, 1 GB, 10 GB oraz Copy-Benchmark

1. Stareńki OCZ Vertex 2

Selection_234Selection_239 Selection_235



3. HP (w RAID0)


4. Crucial M500


Written by marcinbojko

28 lipca, 2015 at 13:33

Napisane w Uncategorized

Linux Mint 17.1 i Napiprojekt

W pracy bardzo doceniam zainstalowanego na laptopie Linuksa, zwłaszcza wtedy gdy potrzebuję stabilnego systemu do diagnozy, projektowania lub rozwiązania problemu. Aplikacje, skrypty, UI -to wszystko powoduje iż w codziennej pracy admina/architekta nie ma sobie równych – bardzo ciężko osiągnąć mi podobną funkcjonalność na stacji roboczej z zainstalowanym systemem z rodziny Windows.

W domu, do tej pory ostoi Windows’a – zawsze wystarczał mi wyżej wskazany laptop. Do czasu zakupy dobrej konfiguracji z 2 solidnymi 24 calowymi monitorami.

Ostatnią przyczyną korzystania z systemu Microsoftu były już tylko gry – jednak czy z tego powodu warto utrzymywać cały OS z innymi narzędziami? Dzięki naciskom Valve i nadchodzącym Steam Machines, już ponad 30% tytułów dostępnych na moim koncie Steam posiada swoje odpowiedniki  Szybki dual-boot z Linuksem zdecydowanie potwierdził tą tezę.

Przenosiny (wyjątkowo szybkie, skopiowanie /home z laptopa i dorzucenie wymaganych repozytoriów i pakietów) to temat na inny artykuł. Z poprzedniego OS brakowało mi tylko łatwego dostępu do zasobów Napiprojektu i błyskawicznego dopasowywania napisów do plików wideo.

W Linux Mint 17/17.1 skorzystać możemy z repozytorium zawierającego ostatnią wersję Qnapi (1.6-rc2-1) dla używanej przez nas architektury lub pobrać plik .deb bezpośrednio.

add-apt repository ppa:patryk-prezu/ppa

Jeżeli mamy już zainstalowane Qnapi warto dodać 2 dodatkowe akcje na managera Nemo, pozwalające pobierać napisy dla wszystkich zaznaczonych plików, we wskazanych językach.

W katalogu /usr/share/nemo/actions tworzymy dwa pliki o nazwach i zawartości:

nazwa pliku: 98_qnapi_en.nemo_action

[Nemo Action]
Name=Pobierz napisy EN z QNapi
Comment=Pobierz napisy EN z QNapi
Name[en]=Download EN subtitles with QNapi
Comment[en]=Download EN subtitles with QNapi
Exec=qnapi -l EN %F


nazwa pliku: 99_qnapi.nemo_action

[Nemo Action]
Name=Pobierz napisy PL z QNapi
Comment=Pobierz napisy PL z QNapi
Name[en]=Download PL subtitles with QNapi
Comment[en]=Download PL subtitles with QNapi
Exec=qnapi -l PL %F


Written by marcinbojko

13 marca, 2015 at 12:40

Napisane w Uncategorized

Tagged with , , , ,

2014 in review

The stats helper monkeys prepared a 2014 annual report for this blog.

Here's an excerpt:

The concert hall at the Sydney Opera House holds 2,700 people. This blog was viewed about 15,000 times in 2014. If it were a concert at Sydney Opera House, it would take about 6 sold-out performances for that many people to see it.

Click here to see the complete report.

Written by marcinbojko

30 grudnia, 2014 at 09:58

Napisane w Uncategorized

XXI. Spotkanie Regionalnej Lubelskiej Grupy Microsoft, i mój wykład „Systemy Linux na platformie Hyper-V 2012”

Zrzut ekranu 2014-10-22 18.47.46

23 października 2014 roku w Inkubatorze Technologicznym na ul. Dobrzańskiego 1 w Lublinie godzinie 19:00

Written by marcinbojko

22 października, 2014 at 18:51

Napisane w Uncategorized

HP Onboard Administrator 4.30 – Keeping up with Industry Standards

As you may (or may not) know – time flows. Once you bought quite expensive piece of equipment you want it to be always up to standards and updated to its fullest. You want it to last as long as your project goes.
Vendors like to forget about it. It’s convenient to sell you new hardware every year.
I have terrible experience with DRAC/RSA/Onboard Administrator’s and ILO’s Java/ActiveX admin’s nighmares. ILO/OA are almost always needed in a time of crisis, so six month after last login you can expect almost for sure: something will go wrong with these interfaces.
Maybe it is a Java cache, java security exception, your newer browser, newer OS, few intalled patches – the story is always the same: you have to react quickly only to find yourself in a neverending loop ‚which element causes this?’

It forces you to have almost neverending supply of browsers, virtual machines with different OS’es, every one of them with different snapshots, every one of these snapshots is with different version of Java/flash/browser/patch set. We have a plan: when you want to use THIS function, you have to use THIS version. If you want to switch to another function, you have to use different version (again: OS/browser/java/patch set).

It’s a reversed version of Russian roulette – you have almost zero chances to find proper, working version at first 6, 12 or even 48 shots.

And no, the magic ‚cloud’ is not gonna resolve this.

My quite harsh words are caused by positive feedback from HP – with OA firmware 4.30 I can use Linux Google Chrome again for login, using Remote Console and managing blades.

Yeeey for me…

Buuuu for vendors.

Written by marcinbojko

13 września, 2014 at 10:11

Napisane w Uncategorized, work

Tagged with , , ,

Compacting Virtual Disks in System Center Virtual Machine Manager 2012 R2 or Hyper-V 2012 R2

As we all know – disk space isn’t free. If you allocate disk space to your virtual machine, you always want to allocate proper, well-balanced size to shorten future downtimes. But what is proper and balanced you ask?  There is no short answer to this, but if you’re  IT person, you always will try to allocate more than is needed right at the moment.  The decision is : should I use static or dynamic disks?

For me, there is no really need to use static disks anymore as there is no real speed difference. So, the real pro using dynamic disk is their smaller size.

In production environment, using Microsoft’s hypervisor, we can expect our VM to grow over time. During the nature of virtual machines and virtual disks, the real data machine uses are not the same numbers as virtual disk sizes. It is happening due to hypervisor behaviour – deleting all data from OS in virtual machine is no more than throwing away and index card from your book. The written data are still there, so there is no easy, automated way to compact a virtual disk.

Hypervisor however, tries to allocate in a first place, blocks marked as used. So the real expanding is happening when you’re constantly changing your data, without deleting them first. The great example is with databases, log and temporary trash disks and just plain and simple oversizing. I’ve had a case when relativly small machine (20 GB CentOS with a 600 GB VD) just grew over few days filling whole 600 GB of data because of logs set to DEBUG.

So what will be the cons and of virtual disk growing overtime?

  • obviously, more space allocated at expensive storage for VMs
  • more obviously, when you’re using any kind of backup software, you’re forced to write and store in multiple copies the data you really doesn’t need
  • CBT (Change Block Tracking) Table is bigger to process, with every move
  • more network traffic with every backup job you have
  • live ‚shared nothing’ migration times grows just out of proportions. If you have a small machine with 20GB data on 600 GB sized disk, you will have to transfer this whole fatso over you network to other machine. Even with compression set at live migration, it is just really unwanted.

So what can we do? We can just zero the data you’re not using and Hyper-v cmdlets  will take the rest.

You have to plan downtime for the machine, but according to my tests, zeroing machines with 600 GB took 15 to 30 minutes. With smaller sizes it is just matter of single minutes.

Before you go:
– plan your downtime, compacting should not to be interrupted
– take extra caution. Zeroing important data or uneeded data it’s just a matter of mistake.
– delete all snapshots/checkpoints
– make sure you converted VHD to VHDX (optional)
– make sure your disk is set as dynamic disk
– make sure you have enough room for compacting or resizing. Remember – if you have 600 GB virtual disk, during this process it may grow to this size.
– remember that compacting deletes CBT table for backup software – next backup will be a Full Backup.

The most usable zeroing ways I found was:

Offline methods

– longer downtime
– more accurate (no more background write)
– faster (no more background write)
– smaller risk of processes failure due to ‚out of space’ event

  • zerofree for Linux ext2/ext3/ext4 disks
  • ntfswipe for Windows based disks
  • dd for both Linux and Windows based disks or exotic fs (btrfs/xfs)

Online methods
– less accurate (background write  is still happening)
– machines became slower or unresponsible
– slower process
– risk of applications failing due to ‚out of space’ events
– smaller downtime

– SDelete or CCleaner for Windows based disks
– dd for Linux based disks


Phase I – Zeroing Offline

Offline zeroing (done with System Rescue CD 4.x)

  • Delete all uneeded data (logs, temps, bigfiles, dowloads, caches)
  • Umount all ext2/3/4/ntfs volumes
  • for NTFS volume: ntfswipe -av /dev/volume_name
  • for ext2/3/4 volume: zerofree -v /dev/volume-name
  • for LVM: vgchange -a y;zerofree -v /dev/mapper/volume_name
Zeroing swap space:
# swapoff -a

# free
total used free shared buffers cached
Mem: 8056340 2643132 5413208 155072 606916 914796
-/+ buffers/cache: 1121420 6934920
Swap: 0 0 0

# blkid |grep swap
/dev/sdb2: UUID="adad0488-3b67-4444-b792-6a1a775b8821" TYPE="swap"
# dd if=/dev/zero|pv -treb|dd of=/dev/sdb2 bs=8192
dd: error writing ‘/dev/sdb2’: No space left on device
1,91GB 0:01:04 [30,3MB/s]
249981+4 records in
249980+4 records out
2047868928 bytes (2,0 GB) copied, 67,931 s, 30,1 MB/s

#mkswap /dev/sdb2 -U "adad0488-3b67-4444-b792-6a1a775b8821"
Setting up swapspace version 1, size = 1999868 KiB
no label, UUID=adad0488-3b67-4444-b792-6a1a775b8821
# swapon -a

# free
 total used free shared buffers cached
Mem: 8056340 3309648 4746692 159844 1112232 919708
-/+ buffers/cache: 1277708 6778632
Swap: 1999868 0 1999868

Phase I – Online zeroing

1. Delete all uneeded data (logs, temps, bigfiles, dowloads, caches)

for Windows machine
sdelete -z letter:

Linux machine
#dd if=/dev/zero|pv -treb|dd of=/ bs=4096;sync;sync;rm -rfv /;sync

Phase II – Compacting

1. Shutdown the machine

For System Center VMM 2012 R1/R2

Workspace 1_107
For Hyper-V powershell

Optimize-VHD -Path path_to_vhdx_file.vhdx -Mode Full


Workspace 1_108
System Rescue CD –
SDelete –
CCleaner Portable –
zerofree –

Written by marcinbojko

3 sierpnia, 2014 at 13:10

Yatse – godny następca Official XBMC Remote.

Dla nas wszystkich, uzależnionych od XBMC wygodne zdalne nim sterowanie zawsze było kluczową korzyścią. Wygodny i stabilny klient Official XBMC Remote oferował tryb biblioteki, tryb pilota, sterowanie gestami, podstawowe notyfikacje i tym podobne rzeczy. Niestety, jednak wliczając w w to buildy developwerskie, jego ostatnie wersje pochodzą z końcówki 2012 (lub początku 2013 – w zależności od używanej wersjii), przez co nie do końca potrafią wykorzystać możliwości zarówno obecnego hw, jak i nowych funkcjonalności, które pojawiły się w XBMC 13.x Gotham.

Godnym (i równie darmowym) następcą okazał się być Yatse – dostępny w Sklepie Play:

Nowe i poprawione funkcje:

– prześliczne tematy i wygląd bilbioteki

– obsługa lockscreen (sterowanie, kontrola, tapeta)

– kontekstowa funkcja ‚send to xbmc’  dla materiałów multimedialnych w Twoim urządzeniu – obsługa Google Chromecast

– chmura dla Twoich hostów XBMC


Strona główna

2014-06-21 19.32.38



Tryb biblioteki


2014-06-21 19.32.42



2014-06-21 19.32.22

I auto-tapetka na ekranie głównym (znika po zastopowaniu mediów, lub wybraniu innego) 🙂

2014-06-21 19.32.31



Written by marcinbojko

22 czerwca, 2014 at 14:25

Jak Aero 2 cofa nas w epokę Internetu późnych lat 90

Ci, którzy korzystają z oferty Aero 2, wiedzą doskonale o kolejnym ‚udogodnieniu’ ze strony sieci – wprowadzeniu kodów CAPTCHA. W wielkim skrócie:

– włodarze Aero 2 rysowali mit użytkownika-torrenciarza lub fanatyka streamingu. Muszę pogratulować humoru, podejrzewam iż sami zamknięci w korpo, nigdy z tej usługi nie skorzystali. Wszystkie testy zamknęły się na etapie piwnicy z technicznymi, zielone światło – ruszać! Wie o tym ten, kto PRÓBOWAŁ pobrać załączniki do maila, większe niż przysłowiowe pare kilo. Youtube? Streaming? Deezer? Spotify? Pospolity torrent zamęczał się już na etapie wymiany peerów, o jakimkolwiek ruchu mowy nie ma.

– pula adresów IP stosowana przez Aero 2 była w ilości 10% rzeczywiście wydanych kart. Zakładając iż z usługi korzystało 30% użytkowników – mieliśmy sytuację gdy jedynie 30% z nich miało szanse na połączenie.

– CAPTCHA wymaga dowolnej PRZEGLĄDARKI aby poprawnie, co godzinę wykonać wpis. A co z nowoczesnymi usługami, mało mającymi wspólnego z http/https? Co z wymianą danych w ekosystemach Google/Apple/Microsoft? Co z systemami push (nota bene, dowcip: Aero 2 wymyśliło ‚manualny push’). Co z Google Now? Co z automatyczną synchronizacją plików np. w kilka sekund po zrobieniu zdjęcia? Mówicie, iż nie są tak potrzebne jak dostęp do www portalu dla bezdomnych?

– CAPTCHA stosowana przez sieć jest nieczytelna. I nie, nie przesadzam tutaj, średnio jestem w stanie rozpoznać jeden na 2-3 pokazywane słowa.

– CAPTCHA wymaga restartu połączenia internetowego. Najkrótszym sposobem jest wejście w offline mode i z niego wyjście. Cóż z tego, skoro w 50% przypadków wita nas … CAPTCHA.

Cóż, włodarze Aero 2 wymyślili rzeczywiście fantastyczny sposób na zaoszczędzenie zasobów:

– stanowczo mniejsza pula adresów IP (po godzine od autoryzacji adres jest zwalniany, pula adresów dla CAPTCHY załatwia temat)

– brak danych przesłanych przez urządzenia mobilne w tle

– zniechęcenie użytkowników do marki Aero 2 i Plus

Co najbardziej dla mnie fantastyczne – część pustogłowych blogerów od początku piała mitem numer jeden – jak to Aero 2 oczyści sieć z piratów i cebulaków, gdzie NIKT z nich nie zastanowił się nad prawdziwym impaktem wprowadzenia drakońskich ograniczeń. Ba, do dzisiaj na oficjalnych stronach spółki, pojawiają się wpisy odsądzające od czci każdego kto ośmiela się narzekać na podobno ‚darmową’ usługę.

Z tą ‚darmowością’ jest jak w życiu – Aero 2 świadczy usługi za które JUŻ dostałą wynagrodzenie. Usługi pokrywane są ze wspólnych (czytaj państwowych) środków. Świadczy je tak, iż ogranicza do nich dostęp śmiejąc się w kułak z negatywnego PR.

Co dziwne, zazwyczaj trzeźwo myślące UKE wydaje się mieć inne zdanie.

Written by marcinbojko

23 kwietnia, 2014 at 10:16

Napisane w Uncategorized

Tagged with , , ,

Pogoplug – więcej korzyści dla Linksowców niż dla innych nacji.

Ostatnio, dzięki koledze z pracy, odkryłem całkiem ciekawy dysk w „chmurze” –, który za skromną, miesięczną 4 dolarową opłatą pozwala nam korzystać ze swoich zasobów w formie ‚unlimited’. Przy okazji – dziękuję Marcinie 😉

Dostarczany klient, dla systemów Windows i MacOS raczej funkcjonalnością nie powala, jednak ma sporo niedogodności:

– domyślnie wpycha do chmury foldery ‚Moje dokumenty’, ‚Moja Muzyka’, ‚Moje filmy’ itp, itd, czyli cały ten Windowsowy śmietnik (kto nie wierzy niech zajrzy do ‚Moich dokumentów’, najlepiej z włączonym podglądem plików systemowych i ukrytych. Nie można tej opcji wyłączyć (trzeba każdorazowo zatrzymywać ich kopiowanie).

– chmura działa jak czarna dziura – plik usunięty na dysku źródłowych, egzystuje w nieskończoność na dysku chmurowym. Rozwiązanie fajne dla zagapionych, ewangelistów Windowsa i przepłacanych blogerów Apple. Dla tych normalniejszych, synchronizacja jest rozwiązaniem właściwym.

– kontrola nad plikami nie powala – lepiej powiedzieć, nie ma jej wcale ;(

– nie da się skorzystać z robocopy, fastcopy czy jakiegokolwiek ręcznego copy ;(

Na szczęście, w systemie Linux, potraktowanemu po macoszemu przez twóców chmury, rozwiązaniem jest pogoplugfs, który montuje nam dysk chmurowy we wskazanym przez nas folderze. Oczywiście automatyzujemy proces (fuse lub udev), co więcej wykorzystując graficzne narzędzia jak grsync wyciągamy z chmury to co najlepsze 😉

Cały proces mamy precyzyjnie opisany tutaj:, ja skupię się na samym rsync/grsync i małej potyczce z mechanizmem chmurowym.

PogoPlug oferuje bardzo sympatyczny (chociaż prościutki) interfejs do obsługi naszych plików multimedialnych. Pliki muzyczne czy wideo możemy sobie streamować na urządzenia mobilne (lubo dtwarzać poprzez interfejs webowy) tworząc naszego prywatnego Deezera.

A wygląda to tak:



Co ciekawe, podczas transferu za pomocą grsynca, pliki przesyłały się poprawnie (właściwa suma md5), jednak z nieznanych mi powodów nie pojawiały się w interfejsie, w sekcji multimedialnej. Dotyczyło to zarówno plików audio jak i wideo. Pliki istniały we właściwych folderach, jednak zawsze typem pliku było ‚file’ zamiast ‚music’ czy ‚video’. Po krótkim śledztwie winowajcą okazał się standardowy sposób w jaki rsync/grsync przesyła dane. A robi to tak:

Załóżmy iż wysyłamy plik o nazwie: muzyka.mp3. Rsync wysyła go jako ‚muzyka.m3.RANDOMCHARS, po poprawnie zakończonym procesie transferu zmienia mu nazwę na ‚muzyka.mp3’.  Zachowanie to zmieniamy dodając parametr –inplace i już możemy cieszyć się zarówno poprawnie wykonaną kopią zapasową, jak też i strumieniowaniem naszych utworów muzycznych 😉

Written by marcinbojko

2 marca, 2014 at 18:30

%d blogerów lubi to: