- Werbung -


Hier könnte Ihre Werbung stehen. Interessiert? Sprechen Sie uns an.


Neueste Kommentare

Hardware

EISFAIR - Server selbst gebaut; Teil 1: Aufbau und Installation

Um einen eigenen Server aufzusetzen, kann man im Grunde jede beliebige Linux-Distribution nehmen. In der Regel sind diese Distributionen ziemlich schwergewichtig und bringen tausende von Programmpaketen mit, die für den Einsatz als Server überhaupt nicht nötig sind. Ein Projekt, bei dem genau die Dienste im Vordergrund stehen, die man für einen (Internet-)Server braucht, ist EISFAIR. Das EIS in EISFAIR steht für "easy internet server" und deutet schon die Intention dieses aus fli4l hervorgegangen Projektes an. Der Einfachheit halber werde ich im Weiteren den EISFAIR-Server nur noch mit "EIS" bezeichnen.

EIS sollte ein einfach zu installierender Internet-Server werden. Er basiert auf Linux und verwendet ausschließlich freie Software. Seine Installation wie auch sein Betrieb setzen im Großen und Ganzen keine grundsätzlichen Linux-Kenntnisse voraus und sind mit einfachen, weitgehend einheitlichen Mitteln möglich. Mit dem Projekt sollte ein Problemfeld von Linux/Unix angegangen werden, das vor allem Einsteigern das Leben schwer macht. Häufig ist es so, dass Linux-/Unix- Applikationen zwar sehr ausgereift sind und stabil laufen, aber auf völlig unterschiedliche Art und Weise installiert und vor allem konfiguriert werden. Das Fehlen einer einheitlichen Schnittstelle erschwert dem Benutzer die Konfiguration und erhöht damit den Einarbeitungsaufwand. Die für EIS angebotenen Anwendungen verfügen dagegen nicht nur über einen einheitlichen Installationsmechanismus, sondern auch über eine einheitliche Konfigurationsschnittstelle. Damit ist es gelungen, den Aufwand für die Installation, Einarbeitung und Konfiguration zum Teil deutlich zu reduzieren.
 

Subnotebooks - ein nicht ganz neuer Trend

Spätestens als Steve Jobs im Januar 2008 das MacBook Air vorstellte, wurden für eine breitere Masse Subnotebooks ein Begriff. Subnotebooks sind besonders kleine und leichte Notebooks. Ihre gängigen Bildschirmdiagonalen sind z.B. 8,4" (21,34 cm), 10,4" (26,4 cm), 12" (30,5 cm) bis maximal 13" (33,0 cm). Das Gewicht liegt bei unter einem bis maximal zwei Kilogramm.

Die Ausstattung reicht häufig an ein vollwertiges Notebook heran, allerdings wird in der Regel auf optische Laufwerke verzichtet und die Tastatur verkleinert. Teilweise sind weniger Anschlüsse vorhanden. Eine ähnliche Geräteklasse bilden die Ultra Mobile PC (früherer Projektname: Origami), abgekürzt UMPC, lanciert von Microsoft und Intel im Frühjahr 2006 auf der damaligen CeBIT. Ultra Mobile PCs sind kleiner als Subnotebooks, verfügen über ein diagonal ca. 12,7-17,8 cm (5-7 Zoll) großes TFT-Display und werden, ähnlich wie Tablet-PCs, hauptsächlich über den berührungsempfindlichen Bildschirm oder mit Stylus-Stiften bedient.

Bereits 1989 wurde das erste, extrem kleine Notebook von Compaq vorgestellt, das mit der Größe eines A4-Blattes und der stattlichen Bauhöhe von über 5 cm für damalige Verhältnisse der reinste Hosentaschencomputer war. Anfang des neuen Jahrtausends machten die Sony Vaios Furore, nur noch halb so hoch und etwas kleiner als DIN A4.

Palm Centro

Kann ja sein, dass jemandem ein Subnotebook immer noch zu groß ist. Manch einem mag ein SmartPhone für unterwegs schon ausreichen. Der Centro von Palm geht jetzt als Konkurrent "von unten" an den Start. Seit Oktober 2007 hat der angeschlagene PDA-Marktführer Palm in den USA über eine Million dieser Geräte verkauft. Der Preis von 99 Dollar bei gleichzeitigem Abschluss eines Mobilfunkvertrags hat natürlich das Seinige dazu beigetragen.

Digitale Spiegelreflexkameras 3 – Das RAW-Format, Bildbearbeitung und Drucken

Bei den höherwertigen Digitalkameras kann man außer den verschiedenen Auflösungen und JPEG-Qualitätsstufen im Allgemeinen noch ein RAW-Format als Dateityp wählen – oft sogar die gemeinsame Speicherung von JPG- und RAW-Version des gleichen Bildes. RAW – wörtlich übersetzt „roh“- Rohdaten also? Im Prinzip ja, aber nicht so, wie man das auf den ersten Blick vielleicht glaubt!

Digitale Spiegelreflexkameras 2 – Megapixel und Co

Vielleicht haben sich einige beim Lesen des ersten Teils meiner Darstellung gewundert, dass ich auf die Megapixel, also die Anzahl der Bildpunkte auf den Sensoren, nicht eingegangen bin. Der Grund ist unter anderem, dass hier nicht einfach „mehr ist besser“ gilt, sondern man das Ganze etwas differenzierter betrachten muss.

Fragt man nach „Megapixeln“ und ihrer Bedeutung, wird einem als Antwort oft der Zusammenhang mit der möglichen Ausdruckgröße genannt. So heißt es meistens: 2 MegaPixel (MP): bis 10x15 cm; 3MP bis 13x18 und ab 7MP: DIN A4 (alle Werte bei etwa 300 dpi). Obwohl z.B. auch die Programme von Firmen wie Schlecker beim Hochladen der Digitalfotos zum Erstellen von Abzügen sich oft nach diesen Werten richten, ist das aber nur die halbe Wahrheit. Bezogen auf die reine Pixelzahl mag das so stimmen, aber das Problem liegt im Detail.

Digitale Spiegelreflexkameras Teil 1 - Historie und Prinzipien

Gegen Ende des analogen Zeitalters bei Spiegelreflexkameras nutzten "engagierte Fotoamateure" im Wesentlichen nur drei Firmen, die mit ihren "inkompatiblen" Systemen den Markt unter sich aufteilten: Canon, Nikon und Minolta. (Natürlich gab es noch das Pentax-K-Bajonett - als Nachfolger des sehr verbreiteten Schraubgewindes M42 positioniert). Ab etwa Ende der 80er-Jahre hatten sich dann auch die "teilweise neuen" Bajonettstandards etabliert, und man konnte in eine sichere kompatible Zukunft schauen.

Der Einstieg ins Digitale
Dann kamen die digitalen Spiegelreflexkameras (DSLR = Digital Single Lens Reflex-Camera), und sie bauten erfreulicherweise auf den eigentlich durch die Entwicklung von Autofocusobjektiven geschaffenen Bajonettstandards auf. Canon und Nikon bauen weiter DSLRs, Minolta hat Anfang 2006 das Geschäft mit Kameras aufgegeben und sein Know-How an Sony verkauft, die tatsächlich weiter Kameras kompatibel zum Minolta-A-Bajonett bauen. Nikon verwendet heute noch sein F-Bajonett aus 1959, was 1983 eine AF-Erweiterung (Autofocus) erfuhr. Alte F-Bajonett-Objektive sind – allerdings mit einer Reihe Einschränkungen – also auch heute noch nutzbar. Minolta entwickelte sein AF-System (mit dem A-Bajonett) bis ca. 1985. Canon stieg von dem FD-Bajonett ca. 1987 auf das EF-Bajonett um – dies war ein sehr großer und damals viel diskutierter Schritt. Er hat sich aber meines Erachtens ausgezahlt, da dieses Bajonett konsequent sowohl auf Autofocus-Fähigkeiten hin wie auch auf die elektrische Übertragung aller möglichen Signale (wie Blendenwerte etc.) entwickelt wurde (während Nikon zum Beispiel nur eine "elektrische Erweiterung" vornahm).
Eine neue Gruppe ist hinzugekommen, die den "Four-Thirds-Standard" unterstützt, der 2002 von Olympus und Kodak formuliert wurde und unterdessen auch von Fuji, Panasonic, Leica, Sanyo und Sigma unterstützt wird. Und schließlich lebt das Pentax-K-Bajonett mit einigen Modifikationen heutzutage auch noch – wenn auch, durch die großzügige Lizenzierungspolitik bedingt, oft Fremdhersteller den Kompatibilitätsbereich verlassen haben.
Ach ja: den Übergang ins digitale Spiegelreflex-Zeitalter schaffte Canon 1995, Nikon und Minolta 1999 (und Pentax 2003).

Ein neues Kraftwerk im PC

Der Einbau von Speichermodulen, Steckkarten und Laufwerken in einen PC ist für handwerklich versierte User eigentlich kein besonderes Problem. Der Austausch des Netzteiles ist dagegen schon etwas komplizierter - dieser Beitrag gibt die notwendige Hilfestellung.

Neue Intel-Prozessoren

Die "Core-2-Duo"-CPUs von Intel gibt es schon eine Weile – durch ihre hohe Leistungsfähigkeit bei vergleichsweise günstigen Preisen sind sie sehr beliebt geworden. Die – in Israel entwickelte – neue Technologie halbierte quasi den Stromverbrauch gegenüber Intels vorheriger "Pentium 4"-Linie, die bei knapp 4 Ghz Taktfrequenz endete. Nun ist eine Reihe neuer Varianten auf den Markt gekommen, denen wir uns mal kurz widmen wollen.

Große Festplatten unter Windows 2000

Probleme mit der Größe von Festplatten sind ein altes Problem. In der Regel sind es die BIOSe der Motherboards, die hierfür verantwortlich sind. Manchmal sorgt aber auch das Betriebssystem dafür, dass der Einbau einer neuen Festplatte unerwartete Schwierigkeiten bereitet.

Grenzland
504 MByte, 2 GByte, 8 GByte, 32 GByte sind mittlerweile Grenzen, die bei moderner Hard- und Software keine Rolle mehr spielen. Nachdem sich die Speicherkapazität neuer Festplatten unaufhaltsam der Terabyte-Marke nähert - und sie vereinzelt schon überschritten hat-, ist eine neue Grenze für Nutzer von Windows 2000 (unter Umständen aber auch bei Windows XP) relevant geworden: 128 GByte)(*). Diese Grenze betrifft nur IDE-Platten, SCSI-Festplatten sind hiervon nicht betroffen.

Der Grund für diese Grenze liegt in dem 28-Bit breiten Adressierung der Festplattensektoren. Um auch größere Festplatten verwalten zu können haben die BIOS-Hersteller ungefähr ab 2001 eine 48-Bit-Adressierung eingeführt - den so genannten 48-Bit-LBA-Modus. Damit steigt die verwaltbare Speicherkapazität auf über 100 Peta-Byte (ein Peta-Byte sind 1000 Tera-Byte!). Allerdings reicht es nicht, wenn das BIOS des Motherboards in der Lage ist solch große Platten zu verwalten, auch das Betriebssystem muss mitspielen. Und hier liegt bei Windows 2000 ein Problem: erst ab Service Pack 3 wird 48-Bit-LBA unterstützt. Das Aufspielen des Service Packs alleine genügt jedoch nicht. Zusätzlich ist ein Eintrag in der Registry von Windows erforderlich, damit dieser Modus auch benutzt wird.

Inhalt abgleichen