Archiv

Artikel Tagged ‘Linux’

Einmal mit Profis

16. August 2013 3 Kommentare

Fehl http://de.archive.ubuntu.com raring-backports/multiverse i386 Packages
404 Not Found [IP: 192.168.0.1 8182]

Tags: , ,

ZFS unter CentOS

11. August 2013 5 Kommentare

Ich war noch nie ein Freund des LVM von Linux. Mir ist die Syntax viel zu kompliziert und man muss sich trotzdem noch mit Dateisystemen herumschlagen. Andererseits bin ich kein allzu großer Freund von Solaris, aber ZFS eignet sich sehr gut um viele Festplatten zu verwalten warum also nicht ZFS unter Linux? Ich wollte mal schauen ob das mittlerweile funktioniert und das geht so:

Zur Vorbereitung benötigt man ein CentOS 6.x und . Hat man das wird zuerst das Repo installiert:

yum localinstall --nogpgcheck http://archive.zfsonlinux.org/epel/zfs-release-1-2.el6.noarch.rpm

Dann die benötigten Sachen zum Kernel bauen:
yum update
yum install dkms gcc make kernel-devel perl

Dies sollte man auf x86_64 machen, sonst bauen die Kernel-Module nicht:
ln -s /usr/lib64/dkms/ /usr/lib/dkms

ZFS installieren nicht vergessen:
yum install spl zfs

Und vor dem Reboot dafür sorgen das es aktiviert wird:
chkconfig zfs on

Danach kurz testen ob es funktioniert:

server:~# zpool status
no pools available

Wer sich weitergehend mit ZFS auseinandersetzen will, dem sei der ZFS Best Practices Guide angeraten.

Am Ende kann es dann so aussehen:

server:~# zpool status
pool: zfs-data
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
zfs-data ONLINE 0 0 0
sdd ONLINE 0 0 0
sde ONLINE 0 0 0
sdf ONLINE 0 0 0
sdg ONLINE 0 0 0
sdh ONLINE 0 0 0
sdi ONLINE 0 0 0
sdm ONLINE 0 0 0
sdn ONLINE 0 0 0
sdo ONLINE 0 0 0
sdq ONLINE 0 0 0
sdr ONLINE 0 0 0
sds ONLINE 0 0 0
errors: No known data errors
server:~# zfs list
NAME USED AVAIL REFER MOUNTPOINT
zfs-data 388K 2.38T 31K /zfs-data
zfs-data/compressed 194K 2.38T 194K /zfs-data/compressed

Ich könnte mir gut vorstellen später auf meinem Heimserver das Root-Dateisystem auf einer SSD zu haben und die Daten auf einem großen ZFS-Volume, mal gucken wie stabil das ist.

Tags: , ,

Spamassassin optimieren – Jahre später

27. Dezember 2011 Kommentare ausgeschaltet

Ich bin gerade dabei ein paar alte Zöpfe abzuschneiden, dazu gehört für mich auch mein Spamfilter-Setup zu entrümpeln. Durch neuere Spamassassin-Versionen haben sich viele Konfigurationen überlebt, werden nicht weitergeführt bzw. sind in Spammassassin aufgegangen wie z.B. das Rules Emporium – SARE.

Ganz besonders die externen Regelwerke sind doch deutlich geschrumpft und somit auch die Konfiguration von /etc/spamassassin/sare-sa-update-channels.txt

updates.spamassassin.org
khop-bl.sa.khopesh.com
khop-blessed.sa.khopesh.com
khop-dynamic.sa.khopesh.com
khop-general.sa.khopesh.com
khop-sc-neighbors.sa.khopesh.com
sought.rules.yerp.org

Die khop-Kanäle stammen übrigens von Adam Katz, der auch noch andere sinnvolle Tipps hat.

Die benötigten Keys zur Validierung in /etc/spamassassin/sa-update-keys.txt

856AA88A
6C6191E3
E8B493D6

und deren Installation:

wget -qO - http://khopesh.com/sa/GPG.KEY http://yerp.org/rules/GPG.KEY \
http://daryl.dostech.ca/sa-update/sare/GPG.KEY |sudo sa-update --import -

Der Aufruf für das Update sieht dann so aus:

/usr/bin/sa-update -D --channelfile /etc/spamassassin/sare-sa-update-channels.txt --gpgkeyfile /etc/spamassassin/sa-update-keys.txt

Das war es eigentlich auch schon. Ein paar Punkte bringen dann noch DNSBLs wie ixHash und/oder inps und das deutschsprachige Regelwerk ZMI_german. Leider gibt es hierfür zur Zeit kein automatisches Update mehr, der Autor möchte aber anscheinend einen eigenen Update-Channel einrichten.

Die eigene Cloud mit Owncloud

22. Dezember 2011 4 Kommentare

So richtig spannend, was Neues anging, gab es für mich in den letzten Jahren nicht. Es waren eigentlich immer die gleichen Themen, die einen als Sysadmin beschäftigen und da gilt dann irgendwann ‚been there, done that‘. Vieles ist heute zur Selbstverständlichkeit und damit viel einfacher geworden.

Spannend war eigentlich nur das Thema Cloud-Computing, dies ist aber mittlerweile ein Buzzword für das Bullshit-Bingo geworden. Allerdings ist man in diesen Bereich meistens als Außenstehender Beobachter unterwegs, da der Markt von großen Anbietern wie Amazon und Google beherrscht wird. Dies hat den riesigen Nachteil, das man sich an diesen Anbieter sehr stark bindet. Ein Auflösen dieses Bundes kann jedwede Einsparung, die man vorher vielleicht hatte wieder zunichte machen. Ein anderer Punkt ist, das man als Anbieter schnell sein Alleinstellungsmerkmal verlieren kann, da Cloud-Dienste eine starke Standardisierung erfordern. Wenn aber alle gleich arbeiten, weil sie sich den Prozessen & APIs der Anbieter unterwerfen ist man selbst kaum Unterscheidbar von anderen im Markt und damit austauschbar. Lange Rede, kurzer Sinn: Cloud-Computing stellt andere Herausforderungen und man sollte sich damit auseinandersetzen.

Nun kann man gucken was Google, Amazon oder vielleicht Joyent so machen oder einfach selbst eine ‚Coud‘ installieren und hierfür gibt es die Owncloud. Als PHP-Anwendung ist es recht einfach zu installieren. Ich habe einen lighttpd am Start und hier war es nur auspacken, Rechte richtig setzten und gut. Bei der Installation kann man zwischen einer mitgebrachten oder einer Mysql-Datenbank wählen und dann ist man auch schon durch.

Owncloud bringt eine eigene Benutzerverwaltung mit, die das Anlegen von Gruppen und festlegen von Quotas ermöglicht, der Benutzer selbst kann Ordner anlegen und Dateien anderen Gruppen oder der Öffentlichkeit freigeben. Diese Strukturen bilden sich später ohne jedwede Verschlüsselung im Datei-System ab, das sollte jedem klar sein, der Owncloud verwendet.

Als Benutzer stehen eine Dateinablage, Musik abspielen im Browser sowie Kalender, Kontakte und Bookmarks zur Verfügung.

Der Zugriff erfolgt entweder komplett über den Browser oder über die zur Verfügung gestellten Dienste, dies wären Webdav, Caldav und Carddav – eine rudimentäre Beschreibung gibt es auf der Webseite von Owncloud. Anmerkung: Thunderbird selbst kann kein Carddav.

Apps oder Clients gibt es zur Zeit noch nicht. Ich glaube aber das sich hier noch viel tun wird, denn mittlerweile gibt es schon eine Firma die sich um Owncloud kümmert und es werden sich bestimmt viele Leute finden, die das Thema Owncloud so spannend finden wie ich und zum Wachsen dieses Ökosystems beitragen werden.

IPv6 für Zuhause – es wird spannend

10. Mai 2011 2 Kommentare

Das IPv4-Adressen zu Ende gehen brauche ich wohl niemanden zu erzählen. IPv6 ist die Zukunft. Tunnel-Broker, Privacy-Extensions – been there, done that. Zukünftig werden IPv6-Netze vergeben, das wie wird sich von Provider zu Provider unterscheiden. Das große T und Vodafone haben aufgrund von Datenschutzbedenken angekündigt auch weiterhin dynamische Adressen zu vergeben, wie auch immer das aussehen mag.

Spannend wird es für jeden mit kleinem Heimnetzwerk. Im Moment ist die Welt noch in Ordnung, denn man hat RFC1918-Adressen und NAT am Start. Private Adressen gibt es auch bei IPv6, aber kein NAT. Bekommt man ein Netz ist es nicht das Problem, aber was wenn es nur eine einzelne Adresse wird? Dies würde zu einer Auferstehung von Proxy-Diensten aller Art führen. Selbst wenn man ein Netz bekommt würde es sich regelmäßig ändern, was ständige Adressänderungen im Netz nach sich ziehen würde. Die Frage wäre dann wie erreiche ich morgen meinen Server?

Letzteres sehe ich als kleinstes Übel an. IPv6-Adressen sind aber so lang, dass man sie sich schlecht merken kann, daher wird sich der Umgang damit ändern. Sie werden natürlich da sein, aber um sich im lokalem Netz zu orientieren wird Service-Discovery die führende Rolle einnehmen. Also Dinge wie Zeroconf, Avahi, uPNP und das allseits beliebte NetBEUI.

Damit löst man sich von Adressen und bewegt hin zu Diensten im Netz, was auf der Console so aussieht

$ avahi-browse --all
+   eth0 IPv4 floyd                           Remote Disk Management local
+   eth0 IPv4 Download-Verzeichnis               Network File System  local
+   eth0 IPv4 MPD on statler                        Music Player Daemon  local
+   eth0 IPv4 statler                                   IMAP Mail Access     local
+   eth0 IPv4 statler                                   SSH-Fernzugriff      local
+   eth0 IPv4 dm500hd                                SSH-Fernzugriff      local
+   eth0 IPv4 SFTP File Transfer on statler      SFTP File Transfer   local
+   eth0 IPv4 SFTP File Transfer on dm500hd   SFTP File Transfer   local
+   eth0 IPv4 statler                                   Arbeitsplatzrechner  local
+   eth0 IPv4 dm500hd                                Arbeitsplatzrechner  local
+   eth0 IPv4 piggy                                     Arbeitsplatzrechner  local
+   eth0 IPv4 floyd                                     Arbeitsplatzrechner  local

und ( im Zusammenspiel mit dem richtigen Linux) für schöne Dinge wie Hostname Tab-Completion sorgt. Einmal eingerichtet und daran gewöhnt, eine schöne Sache wie ich finde.

Tags: , ,

Defektes ext3 Journal erneuern

21. Januar 2011 Kommentare ausgeschaltet

Manchmal zerreißt es einen nicht direkt das Datei-System, sondern das Journal. Symptome sind z.B Meldungen wie Journal has aborted, auf der Console, in Einklang mit einem Read-Only Filesystem. Ein einfaches fsck führt dann nicht zu einer Besserung, sondern beim nächsten Neustart schaltet sich das Dateisystem wieder weg. Dann muss ein neues Journal her und das geht so:

# tune2fs -O ^has_journal /dev/sysvg/root
# e2fsck -fn /dev/sysvg/root
# e2fsck -fy /dev/sysvg/root
# tune2fs -j /dev/sysvg/root
# mount -t ext3 /dev/sysvg/root /mnt/

Vom Ablauf her: man löscht erst das Journal, checkt dann das FS ohne Veränderungen. Wenn das OK ist lässt man die Änderungen durchlaufen, erstellt ein neues Journal und muss letztlich einmal das FS mounten. Der letzte Punkt ist wichtig, ohne ihn sind alle vorherigen Schritte nichtig und man darf von vorn beginnen.

n00b-Disclaimer: So etwas macht man nur aus einem Rettungs-System, wie z.B. grml oder dem Rescue-Mode von Redhat/CentOS, heraus. Die entsprechenden Dateisysteme dürfen nicht gemoutet sein.

Tags: ,

Es lebe die .bash_history

9. September 2010 7 Kommentare

Würde es sie nicht geben, man müsste sie erfinden, die .bash_history. Manchmal ist es die letzte Rettung oder die einzig vorhandene Dokumentation. Schön, dass es sie gibt.

Tags: ,

Howto view Sopcast with Mediatomb

23. Mai 2010 Kommentare ausgeschaltet

I tried the following on an Ubuntu 10.04 (Lucid Lynx) and it should work on any other distribution with at least Mediatomb Version 0.12 installed.

First install software you need:

apt-get install mediatomb vlc-nox ffmpeg ffmpegthumbnailer

add this to your config.xml:

<online-content>
[..]
<sopcast enabled="yes" refresh="43200" purge-after="50000" update-at-start="yes"/>
</online>

<transcoding enabled="yes">
<mimetype-profile-mappings>
[..]
<transcode mimetype="video/sopcast-x-ms-wmv" using="video-generic"/>
</mimetype-profile-mappings>
<profiles>
[..]
<profile name="vlcmpeg" enabled="yes" type="external">
<mimetype>video/mpeg</mimetype>
<accept-url>yes</accept-url>
<first-resource>yes</first-resource>
<accept-ogg-theora>yes</accept-ogg-theora>
<agent command="vlc" arguments="-I dummy %in --sout #transcode{venc=ffmpeg,vcodec=mp2v,vb=4096,fps=25,aenc=ffmpeg,acodec=mpga,
ab=192,samplerate=44100,channels=2}:standard{access=file,mux=ps,dst=%out} vlc:quit"/>
<buffer size="14400000" chunk-size="512000" fill-size="120000"/>
</profile>
</profiles>
</transcoding>

Download the Linux Client from Sopcast.com and put it somewhere in your path. Done.

For completeness you can download my config.xml and a additional transcoding script.

Reference: Mediatomb 0.12 on PS3: video thumbnails, YouTube and Apple movie trailers

Links for 2009-10-11

11. Oktober 2009 Kommentare ausgeschaltet

Links for 2009-09-18

18. September 2009 Kommentare ausgeschaltet