- Werbung -


Hier könnte Ihre Werbung stehen. Interessiert? Sprechen Sie uns an.


Neueste Kommentare

Hardware

Starker Zwerg: der Acer Aspire One 150L Teil 1

Preiswerte Mini-Notebooks sind einer der Trends des Jahres 2008. Seit Februar 2008 auf dem deutschen Markt, hat der Asus eeePC 4G schon Kultstatus erreicht. Das Gerät mit dem schwachen 4 GB Flash-Speicher für 299 Euro wurde inzwischen aber schon von der Konkurrenz aus dem eigenen Haus geschlagen. Die neue Generation der eeePCs hat nicht nur eine höhere Auflösung als die beim ersten Gerät verfügbaren 800x600 Pixel. Auch unter der Haube hat sich einiges getan, was sich allerdings in einem Preis von derzeit 399 Euro auch deutlich niederschlägt.

Der Kleine von Acer

Seit Anfang August ist der neueste Winzling von Acer auf dem deutschen Markt: Der Acer Aspire One 150, in den Ausführungen L mit Linux-Betriebssystem und X mit Windows XP Home. Rein äußerlich höchstens wegen des etwas schickeren Designs von seinem Konkurrenten eeePC zu unterscheiden, kann der Aspire One 150 unter der Haube durchaus mit seinen Pfunden wuchern. Satte 120 GB hat die Festplatte, die immerhin 2,5 Zoll groß ist und somit einen nicht unerheblichen Teil des Gehäuses für sich beanspruchen dürfte. Die eingebauten 1024 MB Arbeitsspeicher, bis auf 1,5 GB aufrüstbar, sind heutzutage unterer Durchschnitt für einen Rechner. Der Intel AtomTM Prozessor N270 mit 1.60 GHz, 533 MHz FSB und 512 KB L2 Cache ist eine viel beachtete Neuentwicklung Intels. Das briefmarkengroße Bauteil soll energiesparend arbeiten und wird außerdem preisgünstig angeboten, sagt Intel.

Netbooks im Vergleich

Übersicht

Anlässlich eines Vortrags in Frankfurt und in Marktheidenfeld will ich einmal verschiedene Netbooks miteinander vergleichen und einen davon ein bisschen näher vorstellen.

Das erste Gerät ist der EeePC 4G, der “Vater“ aller Netbooks (auch mal als 700 oder 701 bezeichnet), der in Deutschland etwa zur Jahreswende 07/08 erhältlich war. Das zweite ein Acer Aspire One A150L, über den ein anderer ausführlicher Artikel im UM erscheint resp. schon erschienen ist. Das dritte Gerät wird von Brunen-IT unter dem Serien-Namen ONE exklusiv in Deutschland vertrieben – hier geht es um die Modelle A440 und A450. Das vierte Gerät schließlich ist der seit dem 4. September 08 in Deutschland erhältliche Asus EeePC 1000H.

In der Liste fehlt das Medion-Gerät, welches für viel Aufsehen sorgte und sein Original-Pendant MSI Wind U100 – einfach, weil es zu der Zeit, in der dieser Artikel entstand, quasi nicht zu haben war (und vom 1000H „überrollt“ wurde).

EISFAIR - Server selbst gebaut; Teil 1: Aufbau und Installation

Um einen eigenen Server aufzusetzen, kann man im Grunde jede beliebige Linux-Distribution nehmen. In der Regel sind diese Distributionen ziemlich schwergewichtig und bringen tausende von Programmpaketen mit, die für den Einsatz als Server überhaupt nicht nötig sind. Ein Projekt, bei dem genau die Dienste im Vordergrund stehen, die man für einen (Internet-)Server braucht, ist EISFAIR. Das EIS in EISFAIR steht für "easy internet server" und deutet schon die Intention dieses aus fli4l hervorgegangen Projektes an. Der Einfachheit halber werde ich im Weiteren den EISFAIR-Server nur noch mit "EIS" bezeichnen.

EIS sollte ein einfach zu installierender Internet-Server werden. Er basiert auf Linux und verwendet ausschließlich freie Software. Seine Installation wie auch sein Betrieb setzen im Großen und Ganzen keine grundsätzlichen Linux-Kenntnisse voraus und sind mit einfachen, weitgehend einheitlichen Mitteln möglich. Mit dem Projekt sollte ein Problemfeld von Linux/Unix angegangen werden, das vor allem Einsteigern das Leben schwer macht. Häufig ist es so, dass Linux-/Unix- Applikationen zwar sehr ausgereift sind und stabil laufen, aber auf völlig unterschiedliche Art und Weise installiert und vor allem konfiguriert werden. Das Fehlen einer einheitlichen Schnittstelle erschwert dem Benutzer die Konfiguration und erhöht damit den Einarbeitungsaufwand. Die für EIS angebotenen Anwendungen verfügen dagegen nicht nur über einen einheitlichen Installationsmechanismus, sondern auch über eine einheitliche Konfigurationsschnittstelle. Damit ist es gelungen, den Aufwand für die Installation, Einarbeitung und Konfiguration zum Teil deutlich zu reduzieren.
 

Subnotebooks - ein nicht ganz neuer Trend

Spätestens als Steve Jobs im Januar 2008 das MacBook Air vorstellte, wurden für eine breitere Masse Subnotebooks ein Begriff. Subnotebooks sind besonders kleine und leichte Notebooks. Ihre gängigen Bildschirmdiagonalen sind z.B. 8,4" (21,34 cm), 10,4" (26,4 cm), 12" (30,5 cm) bis maximal 13" (33,0 cm). Das Gewicht liegt bei unter einem bis maximal zwei Kilogramm.

Die Ausstattung reicht häufig an ein vollwertiges Notebook heran, allerdings wird in der Regel auf optische Laufwerke verzichtet und die Tastatur verkleinert. Teilweise sind weniger Anschlüsse vorhanden. Eine ähnliche Geräteklasse bilden die Ultra Mobile PC (früherer Projektname: Origami), abgekürzt UMPC, lanciert von Microsoft und Intel im Frühjahr 2006 auf der damaligen CeBIT. Ultra Mobile PCs sind kleiner als Subnotebooks, verfügen über ein diagonal ca. 12,7-17,8 cm (5-7 Zoll) großes TFT-Display und werden, ähnlich wie Tablet-PCs, hauptsächlich über den berührungsempfindlichen Bildschirm oder mit Stylus-Stiften bedient.

Bereits 1989 wurde das erste, extrem kleine Notebook von Compaq vorgestellt, das mit der Größe eines A4-Blattes und der stattlichen Bauhöhe von über 5 cm für damalige Verhältnisse der reinste Hosentaschencomputer war. Anfang des neuen Jahrtausends machten die Sony Vaios Furore, nur noch halb so hoch und etwas kleiner als DIN A4.

Palm Centro

Kann ja sein, dass jemandem ein Subnotebook immer noch zu groß ist. Manch einem mag ein SmartPhone für unterwegs schon ausreichen. Der Centro von Palm geht jetzt als Konkurrent "von unten" an den Start. Seit Oktober 2007 hat der angeschlagene PDA-Marktführer Palm in den USA über eine Million dieser Geräte verkauft. Der Preis von 99 Dollar bei gleichzeitigem Abschluss eines Mobilfunkvertrags hat natürlich das Seinige dazu beigetragen.

Digitale Spiegelreflexkameras 3 – Das RAW-Format, Bildbearbeitung und Drucken

Bei den höherwertigen Digitalkameras kann man außer den verschiedenen Auflösungen und JPEG-Qualitätsstufen im Allgemeinen noch ein RAW-Format als Dateityp wählen – oft sogar die gemeinsame Speicherung von JPG- und RAW-Version des gleichen Bildes. RAW – wörtlich übersetzt „roh“- Rohdaten also? Im Prinzip ja, aber nicht so, wie man das auf den ersten Blick vielleicht glaubt!

Digitale Spiegelreflexkameras 2 – Megapixel und Co

Vielleicht haben sich einige beim Lesen des ersten Teils meiner Darstellung gewundert, dass ich auf die Megapixel, also die Anzahl der Bildpunkte auf den Sensoren, nicht eingegangen bin. Der Grund ist unter anderem, dass hier nicht einfach „mehr ist besser“ gilt, sondern man das Ganze etwas differenzierter betrachten muss.

Fragt man nach „Megapixeln“ und ihrer Bedeutung, wird einem als Antwort oft der Zusammenhang mit der möglichen Ausdruckgröße genannt. So heißt es meistens: 2 MegaPixel (MP): bis 10x15 cm; 3MP bis 13x18 und ab 7MP: DIN A4 (alle Werte bei etwa 300 dpi). Obwohl z.B. auch die Programme von Firmen wie Schlecker beim Hochladen der Digitalfotos zum Erstellen von Abzügen sich oft nach diesen Werten richten, ist das aber nur die halbe Wahrheit. Bezogen auf die reine Pixelzahl mag das so stimmen, aber das Problem liegt im Detail.

Digitale Spiegelreflexkameras Teil 1 - Historie und Prinzipien

Gegen Ende des analogen Zeitalters bei Spiegelreflexkameras nutzten "engagierte Fotoamateure" im Wesentlichen nur drei Firmen, die mit ihren "inkompatiblen" Systemen den Markt unter sich aufteilten: Canon, Nikon und Minolta. (Natürlich gab es noch das Pentax-K-Bajonett - als Nachfolger des sehr verbreiteten Schraubgewindes M42 positioniert). Ab etwa Ende der 80er-Jahre hatten sich dann auch die "teilweise neuen" Bajonettstandards etabliert, und man konnte in eine sichere kompatible Zukunft schauen.

Der Einstieg ins Digitale
Dann kamen die digitalen Spiegelreflexkameras (DSLR = Digital Single Lens Reflex-Camera), und sie bauten erfreulicherweise auf den eigentlich durch die Entwicklung von Autofocusobjektiven geschaffenen Bajonettstandards auf. Canon und Nikon bauen weiter DSLRs, Minolta hat Anfang 2006 das Geschäft mit Kameras aufgegeben und sein Know-How an Sony verkauft, die tatsächlich weiter Kameras kompatibel zum Minolta-A-Bajonett bauen. Nikon verwendet heute noch sein F-Bajonett aus 1959, was 1983 eine AF-Erweiterung (Autofocus) erfuhr. Alte F-Bajonett-Objektive sind – allerdings mit einer Reihe Einschränkungen – also auch heute noch nutzbar. Minolta entwickelte sein AF-System (mit dem A-Bajonett) bis ca. 1985. Canon stieg von dem FD-Bajonett ca. 1987 auf das EF-Bajonett um – dies war ein sehr großer und damals viel diskutierter Schritt. Er hat sich aber meines Erachtens ausgezahlt, da dieses Bajonett konsequent sowohl auf Autofocus-Fähigkeiten hin wie auch auf die elektrische Übertragung aller möglichen Signale (wie Blendenwerte etc.) entwickelt wurde (während Nikon zum Beispiel nur eine "elektrische Erweiterung" vornahm).
Eine neue Gruppe ist hinzugekommen, die den "Four-Thirds-Standard" unterstützt, der 2002 von Olympus und Kodak formuliert wurde und unterdessen auch von Fuji, Panasonic, Leica, Sanyo und Sigma unterstützt wird. Und schließlich lebt das Pentax-K-Bajonett mit einigen Modifikationen heutzutage auch noch – wenn auch, durch die großzügige Lizenzierungspolitik bedingt, oft Fremdhersteller den Kompatibilitätsbereich verlassen haben.
Ach ja: den Übergang ins digitale Spiegelreflex-Zeitalter schaffte Canon 1995, Nikon und Minolta 1999 (und Pentax 2003).

Ein neues Kraftwerk im PC

Der Einbau von Speichermodulen, Steckkarten und Laufwerken in einen PC ist für handwerklich versierte User eigentlich kein besonderes Problem. Der Austausch des Netzteiles ist dagegen schon etwas komplizierter - dieser Beitrag gibt die notwendige Hilfestellung.

Neue Intel-Prozessoren

Die "Core-2-Duo"-CPUs von Intel gibt es schon eine Weile – durch ihre hohe Leistungsfähigkeit bei vergleichsweise günstigen Preisen sind sie sehr beliebt geworden. Die – in Israel entwickelte – neue Technologie halbierte quasi den Stromverbrauch gegenüber Intels vorheriger "Pentium 4"-Linie, die bei knapp 4 Ghz Taktfrequenz endete. Nun ist eine Reihe neuer Varianten auf den Markt gekommen, denen wir uns mal kurz widmen wollen.

Inhalt abgleichen