Icinga2 auf Debian Stretch installieren

In diesem Tutorial möchte ich auf die Installation von Icinga2 auf Debian Stretch eingehen.

Hierbei geht es Primär um die Grundinstallation und nachher werde ich dann auch auf die Installation des „Directors“ und „Performance Daten“ uvm.

Mein Ziel ist es hier ein Vollständiges Tutorial für Icinga2 aufzubauen damit man nachher eine Vollständige und sehr umfangreiche Monitoring Plattform erhält.

Ich setze das ganze auf einer Hyper-V VM auf und Hoste es in meiner eigenen Umgebung. Ich setze für dieses Tutorial Voraus das ihr ein neu installiertes Debian Stretch auf dem neuesten Stand habt.

Ich halte mich gerne und sehr nah an das was Offizielle Dokumente Schreiben und gebe hier aber wieder was für mich Persönlich ein Fallstrick war und was Ihr ggf. anders machen könnt.Ich empfehle euch für die Installation ein Notepad offen zu halten da ihr Diverse Daten eingibt und auch behalten müsst. Nicht nur das Behalten ist wichtig sondern auch das Konsequente und direkte sortieren ist sehr empfehlenswert.

  • Wir beginnen mit den Grundpaketen, folgende Befehle ausführen
apt-get -y install apt-transport-https

wget -O - https://packages.icinga.com/icinga.key | apt-key add -
echo 'deb https://packages.icinga.com/debian icinga-stretch main' >/etc/apt/sources.list.d/icinga.list
apt-get update
  • Nun das Paket von Icinga2
apt install icinga2

Während der Installation werden 3 Features aktiviert die Grundlegend sidn für den Betrieb von Icinga2:

  1. checker #Für die Ausführung der Prüfungen
  2. notification #Für das versenden von Benachrichtigungen
  3. mainlog #Für das schreiben der icinga2.log Datei

Die Ausgabe auf der Konsole sollte so aussehen:

icinga2 feature list (Befehl):
Disabled features: api command compatlog debuglog gelf graphite icingastatus ido-mysql ido-pgsql influxdb livestatus opentsdb perfdata statusdata syslog Enabled features: checker mainlog notification
  • Monitoring Plugins installieren
apt install monitoring-plugins
  • Icinga2 immer Automatisch starten lassen:
systemctl enable icinga2

Nun habt ihr eine Grundinstallation von Icinga2 durchgeführt. In diesem Zustand kann Icinga2 als Master oder als Satellite betrieben werden. Sehr diesen Zustand als Startposition, Ihr könnt nun Icingaweb2 als Webinterface installieren uvm.

Ich werde im nächsten Artikel hier ansetzen und Icingaweb2 installieren!

Über Feedback freue ich mich immer.

Veeam Backup and Replication 9.5 – Willkommen NFR Lizenz ;-)

Nachdem ich eine NFR (Not for resale) Lizenz von Veeam erhalten habe kann ich Veeam nun ausgiebig testen und auch verwenden.

Das letzte Mal, das ich Veeam richtig genutzt habe war 2016 in der Version 8.x, beim ehemaligen Arbeitgeber. Dort habe ich Veeam installiert, Aktualisiert, Jobs erstellt und neben Backup Troubleshooting auch natürlich „versehentlich“ vor 1 Monat entfernte Dateien vom Tape (LTO) Laufwerk hergestellt.

Natürlich hatte ich auch mit dem Veeam Support Kontakt, der war sehr schnell, freundlich und konnte mir dann auch nur erklären das diese Dateien nicht mehr hergestellt werden können da Sie nicht mehr im Zeitraum sind (4 Wochen aufbewahren und der Kunde war 2 Tage drüber).

Jedenfalls gab es auch Probleme seitens Bandlaufwerke und Veeam, da Veeam damals nicht mit Tape-Library so gut umgehen konnte wie beispielsweise BackupExec.

Jedenfalls wurde mit Version 9.x auch die Powershell Erweiterung, stark weiterentwickelt und dadurch war eine Library Ansteuerung letztlich dann auch viel besser möglich.

Jedenfalls habe ich in meinem TestLab / HomeServer der auf Basis von Windows Server 2016 arbeitet nun Veeam installiert und lizensiert.

Die Installation ging wie gewohnt einfach und schnell und nachdem ich das Ziel angelegt habe (NAS auf Basis von FreeNAS) konnte ich auch den ersten Backup Auftrag erstellen. Der Auftrag war in wenigen Minuten angelegt und der erste Durchgang des Jobs (Sicherung meiner Cloud VM mit Debian Linux) VHDX Größe 900GB und gesichert wurden 491,5 GB (Netto Daten) in 1 Stunde 33 Minuten erfolgreich auf meiner NAS!

Veeam ist wie gewohnt sehr, sehr schnell einsatzbereit und macht seine Arbeit dann auch direkt sehr gut und sehr schnell.

Ich habe nachdem ersten Job noch meine NAS mit einer zweiten Netzwerkkarte ausgestattet und ein Teaming aufgebaut. Dadurch konnte ich die Datenrate von der Windows 10 VM die auf einer Intel SSD abgelegt ist von 97 MB/s auf 155MB/s anheben. Leider habe ich immer noch den Bottleneck wie er in Veeam direkt auch angezeigt wird auf meiner Quelle also mein Server, dieser ist nicht mehr der neueste aber ich rüste diesen nach und nach weiter auf.

Veeam ist wie gewohnt sehr Benutzerfreundlich, intuitiv und performant.

Ich werde in Kürze noch Beiträge zu Veeam verfassen, darunter auch eine Installationsanleitung, Empfehlungen bei Einstellungen uvm.

Über Feedback eurerseits würde ich mich ebenfalls freuen, gerne auch per E-Mail.

Mit besten Grüßen euer

Rafael

IPSec Site-to-Site zwischen PFSense und FritzBox ab FritzOS 6.5x

In diesem Beitra möchte ich euch zeigen wie Ihr schnell eine Site-to-Site Verbindung zwischen einer PFSense Firewall und einer FritzBox ab FritzOS Version 6.5x aufbaut.

Da alle Beiträge so im Internet schon teilweise stark veraltet sind oder kompliziert gehalten sind hier mein Ansatz das Thema etwas einfacher umzusetzen.

Das sind die Vorraussetzungen für die Einrichtung:

-> Zugriff auf PFSense Firewall

-> Zugriff auf FritzBox

-> Ports eingehend für IPSec muss im PFSense eingestellt werden (500UDP, 4500 UDP, 10000 TCP und ESP)

-> Wenn keine Statischen IPs vorhanden sind dann DynDNS Adressen bereit halten

  1. Einrichtung der PFSense Firewall:
    1. Unter VPN -> IPSec -> ein „Phase 1“ Eintrag erstellen:

  1. 2. „Phase 2“ Eintrag in der PFSense erstellen:

Nun gehts weiter zum FritzBox teil. Ich habe für die Erstellung der Konfiguration das AVM eigene Programm „Fritz Fernzugang einrichten“ verwendet -> Download unter: https://avm.de/fileadmin/user_upload/DE/Service/VPN/FRITZ_Box-Fernzugang_einrichten.exe

Alternativ: https://avm.de/service/vpn/uebersicht/ -> FRITZ_Box-Fernzugang_einrichten.exe -> Downloaden!

2. Fritz Fernzugang einrichten -> Programm wird nur für Erstellung der Konfiguration genutzt:

Hier das Netz der FritzBox eintragen (Default Netz: 192.168.178.0/24)

Hier das Zielnetz der PFSense eintragen -> Also das Netz auf das Zugriff erfolgen soll bzw. das erlaubt wird mit der Fritzbox zu kommunizieren:

Lasst euch die Dateien „Exportieren“:

Die erste Datei ist die von der FritzBox -> Export Pfad angeben und Datei erstellen lassen:

Dann noch die PFSense Datei -> Diese könnt Ihr aber entsorgen!

Sollte dann ungefähr so aussehen im Verzeichnis:

Aus dem Verzeichnis braucht ihr nur die Fritzbox Datei -> Diese muss editiert werden mit eurem bevorzugtem Editor.

/*
* C:\AVM\FRITZ!Fernzugang\hier_die_dyn_dns_bzw_IP_der_FritzBox_eingebene\fritzbox_hier_die_dyn_dns_bzw_IP_der_FritzBox_eingebene.cfg
* Fri Jun 22 08:13:46 2018
*/

vpncfg {
connections {
enabled = yes;
conn_type = conntype_lan;
name = „Hier_IP_oder_DynDNS_der_PFSense_Firewall_eingeben„;
always_renew = no; #Auf „yes“ stellen
reject_not_encrypted = no;
dont_filter_netbios = yes;
localip = 0.0.0.0;
local_virtualip = 0.0.0.0;
remoteip = 0.0.0.0;
remote_virtualip = 0.0.0.0;
remotehostname = „Hier_IP_oder_DynDNS_der_PFSense_Firewall_eingeben„;
localid {
fqdn = „hier_die_dyn_dns_bzw_IP_der_FritzBox_eingebene„;
}
remoteid {
fqdn = „Hier_IP_oder_DynDNS_der_PFSense_Firewall_eingeben„;
}
mode = phase1_mode_aggressive;
phase1ss = „all/all/all„;
keytype = connkeytype_pre_shared;
key = „DER_KEY_MUSS_HIER_EINGEFÜGT_WERDEN„;
cert_do_server_auth = no;
use_nat_t = yes;
use_xauth = no;
use_cfgmode = no;
phase2localid {
ipnet {
ipaddr = 20.0.0.0;
mask = 255.255.255.0;
}
}
phase2remoteid {
ipnet {
ipaddr = 30.0.0.0;
mask = 255.255.255.0;
}
}
phase2ss = „esp-all-all/ah-none/comp-all/pfs„;
accesslist = „permit ip any 30.0.0.0255.255.255.0„;
}
ike_forward_rules = „udp 0.0.0.0:500 0.0.0.0:500“,
„udp 0.0.0.0:4500 0.0.0.0:4500“;
}

// EOF

In der Konfigurationsdatei müsst Ihr das was Fett und Kursiv von mir markiert wurde prüfen und ggf. korrigieren!

Wichtig ist das Ihr die Zeile:

phase1ss = „all/all/all„; -> ersetzt durch phase1ss = „dh14/aes/sha„;

always_renew = no; -> auf always_renew = yes; setzt!

phase2ss = „esp-all-all/ah-none/comp-all/pfs„; -> auf phase2ss = „esp-aes256-3des-sha/ah-no/comp-lzs-no/pfs„; ändert!

Die Konfigurationsdatei muss dann gespeichert und in die Fritzbox Importiert werden!

3. Import in die Fritzbox:

Einloggen in der FritzBox -> Internet -> Freigaben -> VPN -> VPN-Verbindung hinzufügen

VPN Konfiguration importieren auswählen -> Weiter:

Datei auswählen und Hochladen:

Nachdem der Import Vollständig abgeschlossen ist werdet Ihr zur VPN Verbindungs-Übersicht weitergeleitet und dort sollte im Optimal Fall die VPN Verbindung auf „Grün“ gehen und alles verbunden sein.

Die Einstellungen habe ich bei mir bei Diversen Fritzbox die alle mindestens 6.5x drauf haben getestet und es funktioniert Einwandfrei.

Der Mode „Aggressive“ in der VPN Konfiguration kann auch auf „mode = phase1_mode_idp;“ umgestellt werden wenn die Gegenstellen Feste IPs haben. Durch den „Aggressive“ Mode wird die Fritzbox zum Initiator und mit Dynamischer IP doch sehr sinnvoll die Fritzbox die Verbindung aufbauen zu lassen.

Ansonsten habe ich auf der VPN Verbindung eine Livetime von 8 Stunden und danach baut sich die Verbindung neu auf. Wenn Ihr die Proposals wie angegeben einträgt dann dauert der Verbindungsaufbau nicht sehr lange, da nicht alle Proposals erstmal ausgehandelt werden müssen.

Sollte was nicht funktionieren meldet euch und stellt nach möglichkeit auch das AVM Support File zur Verfügung -> Kann erstellt werden unter „Inhalt -> FritzBox Support:

Die Datei enthält keine Passwörter oder Sensible Daten sondern nur die reinen Log Files für die Auswertung der VPN Verbindung!

Ansonsten freue ich mich auf Feedback und natürlich wenn der Beitrag dem einen oder anderen helfen kann.

OwnCloud Speicherplatz freigeben

Vielleicht kennt ihr das Problem auch wenn Ihr euren eigenen OwnCloud Server betreibt.

Und zwar das Ihr sehr schnell eure Geplante Festplatten Kapazität verbraucht ist obwohl das Webinterface was ganz anderes anzeigt.

Das liegt einerseits an den Datei Versionen die angelegt werden sobald eine Änderung an einer Datei erfolgt und vielleicht auch noch an dem Fall das die Benutzer Ihren Papierkorb nicht leeren.

Letzteres war bei mir letztens erst der Fall da ich ein OwnCloud Server verwalte mit einigen Usern und bei 600 GB und Real 165 GB Daten die 600 komplett vollgelaufen sind.

Nach weiteren Recherchen habe ich das Problem dann relativ schnell durch zwei Befehle bereinigt:

#Files Cleanup:

sudo -u www-data php occ files:cleanup

#Trashbin Cleanup:
sudo -u www-data php occ trashbin:cleanup

Damit habe ich es dann geschafft 273 GB wieder frei zu räumen.

Wichtig ist das Ihr die beiden Befehle im OwnCloud Root ausführt und die Benutzer passen bei mir waren es eben "www-data"

Bei Fragen meldet euch einfach.

Größe eines Öffentlichen Ordners anzeigen Exchange Management Shell

Hier zeig ich euch kurz wie man in der Exchange Management Shell die Größe eines Öffentlichen Ordners anzeigen lassen kann:

Get-PublicFolderStatistics -ResultSize unlimited | Where-Object {$_.Name -match „NAME_DES_OEFFENTLICHEN_ORDNERS“} | fl

Damit erhaltet Ihr alle Infos zu dem gewählten Öffentlichen Ordner:

info_oeffentlicher_ordner

Wenn Ihr alle Öffentlichen Ordner anzeigen lassen wollt damit Ihr den korrekten Namen findet geht das mit:

Get-PublicFolder -Recurse

Ich hoffe das es dem einen oder anderen helfen kann. Bei Fragen meldet euch einfach.

Nachtrag zum Beitrag „Netgear ReadyNAS Datenrettung von einem X-RAID“

Nachtrag zum Thema:

Netgear ReadyNAS Datenrettung von einem X-RAID

Zu dem Thema muss ich noch sagen das der Kopiervorgang mit dem Parameter -o sync_read sehr viel Ressourcen Verbraucht also habe ich statt:

  • fuseext2 -o ro -o sync_read /dev/c/c /mnt

folgendes getestet:

  • fuseext2 -o ro /dev/c/c /mnt

da Standardmäßig die Option -o async_read aktiviert ist.

Der i5 auf dem ich den Kopiervorgang gestartet hatte war während des Kopiervorgangs so am Ende (400% -> 100% pro Kern / Thread) das man gar keine Eingaben mehr vornehmen konnte und ständig Fehlermeldungen über das Terminal-Fenster liefen.

Achso der X-Server ist auch abgestürzt so das ich über ein anderes Konsolenfenster nur den Status einsehen konnte.

Ich habe den Kopiervorgang dann nach 2 Tagen und 14 GB später abgebrochen und auf einem Server mit 2x Intel Xeon e5520 und Lubuntu 32 Bit nochmals gestartet.

Der Xeon ist mit der Option keinesfalls irgendwie ausgelastet und kopiert nun fleißig.

Ich habe auch die Menge der Daten ermitteln können was unter dem i5 aufgrund der Auslastung nicht möglich war und muss insgesamt 1,3 TB Daten kopieren. Das ist auch das erste mal das ich nicht sagen kann wie lange der Vorgang dauert da die Übertragungsrate sehr stark schwankt.

Unitymedia zur Telekom wechsel

Ich habe das Vertragsende mal genutzt und bin von Unitymedia zur Telekom rüber gewechselt.

Zudem hat der Wechsel hauptsächlich Technische Gründe (IPv4 und IPv6 Echtes DualStack) und dazu kommt der große Upload der für meine Private Cloud wirklich gut ist.

Ich habe den Wechsel frühzeitig angemeldet bei der Telekom ganz Klassisch im Shop, obwohl ich ja wusste welche Leistung ich möchte ist es eine noch sehr gute Sache das man bei Fragen noch Antworten erhalten kann.

Jedenfalls wurde der Auftrag entgegengenommen und ich erhielt irgendwann ein Anruf von einem Umzugsbegleiter der alles nochmals abgeglichen hat und offene Fragen auch klären konnte, was ich ebenfalls sehr gut fand da dieser Herr 2 – 3 angerufen hat bis zum Tag der Schaltung.

Der Tag der Schaltung verlief dann auch ohne größere Komplikationen, Techniker kam vorbei hat die Leitung aktiv gestellt die Dose oben noch gewechselt und war dann schon weg. Leider war ich selbst nicht Vor-Ort und so konnte ich die Leitung erst nach der Arbeit testen.

In der Fritzbox konnte ich dann nur sehen das ich die 100 / 40 nicht komplett erhalte sondern nur 56 / 26.

Daraufhin habe ich die Technik der Telekom kontaktiert, diese haben dann die Leitung durchgemessen und meinten es gibt eine Störung und es müsste ein Techniker raus kommen. Beim zweiten Termin war ich dann auch Zuhause und der Techniker kam und hat die Leitung durchgemessen und sagte dann auch das hier etwas nicht stimmt.

Dann hat er die Leitung unten gemessen und sagte dann das die B-Ader gestört wäre (Erdung liegt an). Kurz telefoniert und eine Viertelstunde später hatte ich dann eine Reserve Leitung als neue Hauptleitung. B-Ader war nicht mehr gestört und ich hatte 79/33.

Leider ist es bei uns im Haus so das sich Unitymedia eingekauft hat und die Telekom als Nischenprodukt schon bereit steht. Zudem sind die Leitungen alt.

Jedenfalls war danach alles soweit gut mit 79/33 kann ich gut arbeiten und ein Downgrade auf 50/10 würde nicht in Frage kommen.

Nach ein paar Wochen wollte ich dann noch die WLAN-TO-GO Funktion gerne aktiv haben und weil man dafür einen Speedport braucht habe ich mir dann noch kurzerhand ein wirklich Neuwertigen W724v Typ-B gebraucht gekauft, was mir lieber ist als die ständige Miete der Geräte.

Vorher war eine Fritzbox 7490 dran und mit dem Speedport bin ich dann jetzt auf 82/34, klar schwanken die Werte immer mal bei der Syncronisation.

WLAN-TO-GO war dann auch irgendwann Automatisch aktiv wie man im Interface der w724v sehen kann nach einem erfolgreichen Login.

Für die Umstellung Fritzbox zu Speedport habe ich ca. 20 Minuten gebraucht mit allen Anpassungen, da diese eigentlich nur Modem spielen soll gibt die halt alles weiter an meinen Pfsense Router.

Im ganzen muss ich sagen das die Telekom eine sehr ordentliche und unkomplizierte Umstellung vorgenommen hat, zu dem ist die Leitung von der Qualität (Ping und Routing) bei mir ca. 12 – 14 ms besser. Wenn ich auch nicht Spiele merkt man es sogar beim einfachen aufrufen von Webseiten oder Videos.

Fazit: Unitymedia hat viel Tempo bei einer rein Technisch absolut schlechten Leitung. Die Telekom macht weniger Tempo weil Sie nicht mehr kann aber dieses Tempo hat es dann in sich (Besserer Ping, Routing ist kürzer -> Weniger Hops, Echtes DualStack).

Kundenservice muss ich sagen finde ich den von der Telekom besser da dort auch Leute dran sitzen die mal die Leitung durchmessen und wirklich einen Fehler finden können.

Aktuell Implementiere ich noch IPv6 komplett im Haushalt dazu dann aber ein anderes mal mehr.

Netgear ReadyNAS Datenrettung von einem X-RAID

Ich kam in das Vergnügen eine ausgefallene NAS vom Kunden zu holen auf der Produktivdaten lagen.

Die NAS ist eine Netgear ReadyNAS v1 obwohl unten drunter v2 gelabelt ist, was mir die ersten Verzögerungen beschert hat. Nach dem die NAS mit dem RAIDar (Netgear NAS Finder) immer zeigte das alles Super ist (Festplatten alles Grün, System alles ist einfach super) Nach einem Login ins Interface ebenfalls alles Super. Wenn alles super ist wieso ist Sie dann ausgefallen hab ich mich gefragt, der einzige Hinweis auf der Startseite ist dass das X-RAID Offline ist.

In den Protokollen hab ich dann den Hinweis gefunden das Datenträger (??) I/O Errors Produziert man sollte es tauschen und einen Rebuild durchführen. Es stand wirklich (??)!!!!!

Jedenfalls hab ich die NAS dann ausgeschaltet und an einem Linux System dann geprüft wie die Partitionen aussehen Ergebnis:

  1. Festplatte hat Partitionen
  2. Keine Partionen vorhanden

Um die Festplatte 1 nicht weiter zu strapazieren habe ich erst einmal mit Acronis versucht eine Kopie auf einen neuen Datenträger zu erstellen -> Ohne erfolg

Mit Clonezilla im Experten Modus -> Hat es über SATA 3 zu SATA 3 ca. 9 Stunden gedauert.

Die Kopierte Festplatte hab ich dann mal wieder in die NAS -> Dateisystemüberprüfung hat ca. 4 Tage gedauert und sich dann bei 70% aufgehangen.

Die CPU war während des Kopiervorgangs bei 99% (Single-Core Sparc CPU).

Als nächsten Versuch hab ich dann erst einmal die Festplatte an einem Linux mit i5 angeschlossen und genau den selben Befehl ausgeführt -> Fehler wurden gefunden und Repariert. Hat ca 3 Stunden gedauert das ganze.

Dann wollte ich das ganze einhängen im Linux um die Daten herauszuziehen. Vorher die FSTAB von der NAS per SSH angeschaut (Kann bei der NAS über ein Addin aktiviert werden).

Gemeldeter Typ war ein Ext2 Dateisystem.

Ich also hin das LVM mit EXT2 versucht zu Mounten, egal welchen Befehl oder Ansatz ich versuchte es ist einfach nicht gelungen. Es folgte ein Fehler nachdem anderen von die Partitionstabelle ist um 2560 Bytes versetzt was in einer schlechten Geschwindigkeit resultieren kann bis hin zu Wrong FS Type, Bad Superblock etc.

Nach weiteren Recherchen und einige Tage später habe ich dann einen Ansatz gefunden:

Die Lösung lautete:

Benötigtes System ein Ubuntu mit 32 Bit (In meinem Fall ein Frisch installiertes auf meinem Testrechner)

  1. sudo su
  2. apt-get install fuseext2
  3. apt-get install lvm2
  4. modprobe fuse
  5. vgscan
  6. vgchange -ay c
  7. fuseext2 -o ro -o sync_read /dev/c/c /mnt

Es war also ein Fuseext2 das auf Basis von einem 32 Bit System gemountet werden sollte.

Damit konnte ich die Festplatte dann einhängen und die Dateien dann auch einsehen. Wobei die geklonte Festplatte Unbrauchbar war vom Ergebnis (Berechtigungen mit ???? ersetzt und Dateigrößen konnte nicht angezeigt werden usw.)

Mit der Original Festplatte die alle Partitionen hatte konnte ich den Kopiervorgang starten.

Womit ich mich aktuell abfinden muss das der i5 mit seinen 2 Kernen und 2 Threads bis zu 400% ausgelastet ist und das Gesamte System sehr träge ist.

Zudem kann ich nur mit den Ordnernamen Kopieren da abfragen mit „df“ und „du“ dafür sorgen das sich das gesamte System so stark aufhängen das nichts mehr geht bis zu einem Neustart.

Der Kopiervorgang läuft aktuell noch und braucht auch für teilweise kleine Dateien wirklich lange, was wahrscheinlich daran liegt das entweder der Controller der Festplatte ein Schaden hat oder das Dateisystem, wobei ich eher zum letzten tendiere.

Abschließend muss ich noch anmerken das ich die ReadyNAS Serie mit WD Green Festplatte mehr als fahrlässig finde und niemanden empfehlen kann solche Festplatten in ein NAS einzubauen, sondern die 10 – 20 € drauf zu legen und entsprechende NAS Festplatten zu nehmen (WD Red)

Die Qualität und der Service von Netgear war ebenfalls mehr enttäuschend da ich Telefonisch nichts erreichen konnte und nur den Hinweis erhalten habe das ich ein Ticket Online Erstmal eröffnen sollte.

Das einzig Positive das die ReadyNAS mir SSH Zugang erlaubt hat und das Dateisystem ein Ext System ist. Die Leistung der NAS ist ebenfalls mehr als unterirdisch!

Die ReadyNAS Serie ist für mich ein sicheres Datengrab vor allem weil das System kein akustischen Alarm hat und nur per E-Mail Warnungen / Alarme senden und natürlich das Webinterface / Tool / Protokoll das absolut keine Brauchbaren Informationen beinhaltet.

Dann Lieber Marke Eigenbau oder QNAP.

Ich hoffe das ich dem ein oder anderen mit dem Beitrag etwas helfen kann.

Meine Lösung Basiert auf folgender Quelle: http://home.bott.ca/webserver/?p=306 weshalb ich hier die Möglichkeit nutze und mich dafür noch bedanken möchte.

Eigene Cloud M@de in Germany! #Nextcloud

Da meine Datenmengen stetig wachsen und ich immer weiter das Problem gesehen habe das alles Dezentral aufbewahrt ist da es auf jedem Rechner verteilt liegt hab ich mir überlegt muss eine Cloud her!

Daraufhin habe ich mich im Internet mal schlau gemacht wie die Preise für 1TB Cloud Space liegen oder ein Bedarfsgerechter Cloud Space!

Mich hat kein Angebot so wirklich angesprochen. Zu dem liegen die Daten ja nicht in der Nähe sondern auf irgendwelchen Servern.

Da ich noch Rest Hardware besitze dachte ich mir Bau doch deine eigene Cloud auf. Gesagt und direkt an die Arbeit gemacht bin ich dann relativ schnell auf NextCloud gestoßen, der Offizielle Fork von OwnCloud!

Ich also hin das sparsamste System genommen was ich finden konnte und das war in meinem Fall ein GA-J1900-D3v der mit einem Intel Celeron j1900 arbeitet und eine Maximal TDP von nur 10 Watt hat. Bei Messungen habe ich dann auch mit allem ein Wert von 20 Watt gehabt für das gesamte System.

Da ich alles Sparsam aufbauen wollte habe ich einerseits gedacht soll die Cloud Bedarfsgerecht wachsen also erst mal mit 2.5 Zoll 250 GB Festplatten angefangen und diese zu einem Software RAID1 zusammengesetzt und mit Ubuntu 16.04 dann auch erst mal ein Nextcloud installiert.

Auf Ubuntu 16.04 ist Nextcloud relativ schnell aufgesetzt und einsatzbereit.

Voller Freude habe ich dann angefangen alles langsam zusammen zu führen.

Bei 155 GB war dann schon Schluss -.- !!

Auf Ursachen suche ist mir dann aufgefallen das eine Datei im Webinterface mit 20 GB angezeigt wird und auf der Systemplatte aber 27 GB verbraucht wieso auch immer.

Jedenfalls waren meine 250 GB nicht voll nutzbar und das war ärgerlich!

Dies und die wenigen Möglichkeiten im Webinterface haben mir leider schnell die Lust an Nextcloud genommen.

Ich konnte nicht mal im Webinterface eine Datei oder einen Ordner umbenennen!

Ich bin mir sicher das man mithilfe von SQL und Tricksereien sein Ziel erreicht aber da mir die Dateien wichtig sind und ich damit nicht basteln möchte hat sich Nextcloud selbst ins K.O. geschossen. Zu erwähnen an dieser Stelle ist, löscht niemals, niemals wirklich niemals die Tabelle SQL Tabelle „Cache“ und „Locks“. Danach gehen keine Dateien mehr auf!! Wie ich auf die Idee kam? Da Nextcloud 2 Dateien synchronisiert hat die dann aber auf dem Nextcloud Storage nicht lagen aber im Interface ums verrecken nicht raus gelöscht werden konnten da Sie ja nicht existieren bzw. gelockt sind! Gesucht und dann auch die Empfehlung erhalten diese zwei Tabellen zu leeren hat dann auch die beiden toten  Dateien entfernt aber eben auch alles andere unbrauchbar gemacht!!! Froh war ich über das SQL Backup das ich noch davor erstellt habe!!

Da ich ein Ultrabook habe mit 128 GB SSD ist es nicht möglich immer alle 250 Gb komplett herunter zu laden um dann etwas zu ändern.

Zudem ist mir aufgefallen das die Performance zu wünschen übrig lässt. Auch hier klar weiß ich ist immer alles auch konfigurationsabhängig und hardwareabhängig ist. Zu der Leistung kam das Problem mit dem Speicherplatz und die immer wieder auftretenden Fehler bei der Synchronisation besonders bei großen Dateien!

Die Anzeige vom Client übrigens ist es der OwnCloud Client Spinnt bei den Zeiten und man weiß nicht wirklich was der macht mal steht 7GB von 20GB dann wieder 3Gb von 20Gb und Nextcloud hat kein Problem die Festplatten so voll zu stopfen das der SQL Server nicht mehr geht!!

Als mir klar wurde das Nextcloud nicht mehr für mich geeignet ist bin ich hingegangen und habe in 7 Stunden 155 GB raus Synchronisiert!

Das alles hat mich dann in die Arme von SeaFile getrieben!

Wie es mit SeaFile weitergeht könnt Ihr in kürze hier in meinem Blog lesen!

#Android6 Motorola Moto G3 + 64 GB SDHC Test

In meinem Motorola Moto G3 das mit 8GB Internem Speicher ausgestattet ist, habe ich nun eine 64 GB SDHC MicroSD Karte eingesteckt.

Dabei schreibt Motorola Offiziell auf der Produktseite dass das G3 nur 32GB unterstützt. Nach anfänglichen Problemen mit der PNY MicroSD SDHC Karte bei der Formatierung, habe ich es nachher geschafft über „Gparted“ unter Xubuntu die Karte zu Formatieren. Ich weiß nicht wieso aber unter Windows 10 und „Diskpart“ oder die „Computerverwaltung“ hing sich alles auf. Auch das „HP Format Tool“ hat sich aufgehangen. Jedenfalls ist es gut das ich noch ein Xubuntu liegen hatte 😉

Jedenfalls nach dem Formatieren, habe ich die Karte in das G3 eingelegt und siehe da die Karte sollte wieder Formatiert werden. Das habe ich dann auch gemacht und nach etwas längerer Zeit war die Karte dann irgendwie da. Ich sage Irgendwie da, weil ich Sie nur unter Einstellungen gesehen aber nicht wirklich auswählen konnte.

Also hin das Gerät neugestartet und unter Einstellungen dann unter der SD-Karte den Punkt „Daten Migrieren“ ausgewählt. Nach ca. 5 Minuten hat das G3 1,65 GB verschoben und die SD-Karte Systemweit als „Storage“ eingebunden.

Ich musste dann noch „TomTom Go“ neuinstallieren da durch das verschieben die App nicht mehr gestartet ist.

Zum Schluss kann ich sagen die 64 GB laufen echt super mit Android 6 auf dem Moto G3. Man sollte beachten das die Karte die man kauft / verwendet schön schnell ist also class 10 und nicht langsamer als der Interne Speicher sonst macht Android auf dauer nicht Spaß.