Dokumentenarchiv mit OneNote

Dieser Beitrag ist jetzt auf meinem eigenen Hosting zu finden. Folge einfach folgendem Link:

Dokumentenarchiv mit OneNote

 

Advertisements

ESET NOD32 – mein erstes Premium-Antivirus

Ich habe es getan. Zum ersten Mal in meinem Leben. Geld für ein Anti-Viren-Programm ausgegeben.

Damals, zu Windows XP-Zeiten (oh ja, ist lange her), habe ich eine ganze zeitlang auf Avira gesetzt und war auch recht zufrieden. Doch dieses Popup, das bei jedem Update der Signaturendatenbank austauchte und freundlich darum bat, doch die kostenpflichtige Version zu nutzen, ging mir mit der Zeit immer mehr auf den Wecker. Seit Windows 7 habe ich dann das Tool von Microsoft genutzt, die Microsoft Security Essentials. Unter Windows 8 ist dieser Anti-Viren-Scanner ja bereits unter dem Namen Windows Defender komplett integriert. Der schöne Vorteil dabei ist die totale Integration in Windows. Man sieht es nicht, man bemerkt es nicht, und trotzdem ist es da. Und tut seine Arbeit. Ohne nennenswerten Einfluss auf die System-Performance.

Nimmt man diverse Tests als Maßstab, ist diese Arbeit aber nicht wirklich gut. Erkennungsraten jenseits von Gut und Böse. Ich habe trotzdem noch nie einen Virus gehabt. Böse Zungen könnten jetzt behaupten, dass der Windows Defender die einfach nicht findet. Selbst Microsoft selbst spricht beim Defender nur von einem Basisschutz und empfiehlt die Nutzung eines separaten Anti-Viren-Tools. Dennoch bin ich eigentlich immer noch der Meinung, dass der Defender ausreicht, wenn man seinen Verstand benutzt, während man sich im Internet aufhält.

Trotzdem habe ich mich in der letzten Zeit mit diesem Thema beschäftigt und einiges gelesen. Ich wollte doch auch mal einen „Pro-Virenscanner“ haben. Neben ordentlichen Schutzwerten kam es mir dabei besonders auf die Beeinträchtigung des Systems an. Und dass es eben keine aufdringlichen Fenster gibt. Schließlich habe ich mich für ESET NOD32 Antivirus 2015 entschieden und die Testversion installiert, die 30 Tage nutzbar ist. Ein kleiner Artikel aus der aktuellen c’t (26/2014) hat mich letztendlich dazu gebracht. Nicht der Test an sich, denn davon halte ich nicht so viel, aber der beschreibende Text. Dort wurde unter anderem gesagt, dass die Auswirkungen auf das System in Sachen Performance kaum vorhanden seien, und vom Schutz spielt ESET mit sehr guten Werten in der obersten Liga mit. Außerdem war das Programm gerade bei einem großen Online-Händler für 21 € für eine 3er Lizenz zu haben. Quasi 7 € für eine Lizenz also. Das fand ich fair.

ESET NOD32 Antivirus 2015
ESET NOD32 Antivirus 2015

Vor dem Kauf habe ich aber wie gesagt die Testversion installiert und wollte mir selbst ein Bild davon machen, wie die Performance des Systems „leidet“. Ich habe vor der Installation die Benchmarks PCMark8, 3DMark und Cinebench durchlaufen lassen und eben nach der Installation, sogar während die Überprüfung lief.

Hier die Ergebnisse:
PCMark8 vorher: 3802 Punkte

PCMark8 vorher: 3802 Punkte
PCMark8 vorher: 3802 Punkte

PCMark8 nachher: 3787 Punkte

PCMark 8 nachher: 3787 Punkte
PCMark8 nachher: 3787 Punkte

3DMark vorher: 3958 Punkte

3DMark vorher: 3958 Punkte
3DMark vorher: 3958 Punkte

3DMark nachher: 3949 Punkte

3DMark nachher: 3949 Punkte
3DMark nachher: 3949 Punkte

Cinebench vorher: 751 Punkte

Cinebench vorher: 751 Punkte
Cinebench vorher: 751 Punkte

Cinebench nachher: 744 Punkte

Cinebench nachher: 744 Punkte
Cinebench nachher: 744 Punkte

 

Das Ergebnis: Nach der Installation von ESET NOD32 sind die Werte in sämtlichen Benchmarks um ein paar Punkte geringer ausgefallen. Aber die „Verschlechterung“ der Performance liegt jeweils bei unter 1 Prozent. Ich denke schon, dass das eine Auswirkung von ESET NOD32 ist, aber man könnte bei der geringen Abweichung durchaus auch von Messtoleranzen sprechen. In der Theorie scheint es minimale Einbußen in Sachen Performance zu geben, in der Praxis dürften die aber unmerklich sein.

Ich auf jeden Fall war überzeugt. Und es gibt auch keine Popups, außer einem dezenten Hinweis, wenn ein Update der Signaturen gemacht wurde, der sich aber auch deaktivieren lässt.

Update-Popup
Update-Popup

Die Oberfläche ist ziemlich spartanisch, was ich aber gut finde. Die Software muss halt einfach schützen, eine große, besonders schöne und bunte GUI brauche ich da nicht, da soetwas ja auch unnötig Ressourcen benötigt.

Startseite
Startseite
Weitere Tools
Weitere Tools

Es gibt diverse Einstellungsmöglichkeiten, wobei die Default-Werte absolut in Ordnung sind. Einen Vergleich zu anderer Software habe ich nicht, aber ich wüsste jetzt nicht, dass mir irgendetwas Wichtiges fehlt.

Erweiterte Einstellungen
Erweiterte Einstellungen

Da mir so spontan nichts groß Negatives aufgefallen ist, habe ich mir ESET NOD32 kurzerhand gekauft. Aktuell läuft noch die Testphase, die ich auch auskosten will, bevor ich die Lizenz aktiviere. Aber danach ist mein PC erstmalig ein ganzes Jahr lang von einem „Premium“-Anti-Viren-Programm geschützt.

Achja, falls der Windows Defender (respektive Microsoft Security Essentials) wirklich so schlecht ist, dann hat er zumindest nicht bei mir versagt. Die Überprüfung meiner kompletten Daten hat nämlich keinen Virus gefunden. Dann hätte ich wohl einfach weiter dabei bleiben und mir das Geld sparen können … 😉

Von Photonen und Bazillen

Wenn ich im Sommer morgens die Jalousien öffne und mir die Sonne ins Gesicht lacht, muss ich fast immer niesen. Dachte ich anfangs noch an Zufall, war mir dann doch recht schnell klar, dass es da einen Zusammenhang zwischen hellem Licht und dem Niesreiz geben musste.

Irgendwann habe ich dann auch mal irgendwo aufgeschnappt, dass man, wenn einem der Nieser in der Nase steckt und nicht wirklich raus will, einfach ins Licht zu schauen braucht, und schon fliegen die Bazillen. Das kann ich bestätigen, es ist bei mir tatsächlich so und wird von mir auch oft ausgenutzt. Ich war der Meinung, dass dieses Phänomen generell gilt und habe mir da keine tiefergehenden Gedanken zu gemacht.

Nachdem wir heute zufällig im Büro das Thema „Niesen“ hatten, habe ich spontan mal Google angeschmissen und siehe da – dieses Phänomen hat sogar einen Namen:

Es handelt sich um das ACHOO-Syndrom (Autosomal Dominant Compelling Helio-Ophthalmic Outbursts of Sneezing) – oder einfacher gesagt um den Photischen Niesreflex.

Dieser kann von Sonnenlicht aber auch von anderen hellen Lichtquellen ausgelöst werden und es sind 17 bis 35 % der Weltbevölkerung betroffen (Frauen häufiger als Männer). Es gibt verschiedene Stärken der Ausprägung; einige niesen zweimal (wie ich), andere sogar bis zu 20 mal, bis sich das Auge an das Licht gewöhnt hat. Dann stoppt der Niesreiz.

Die Ursache ist bis heute nicht abschließend erforscht, die wahrscheinlichste Erklärung ist, dass bei den Betroffenen der Sehnerv und der unter anderem die Nasenschleimhaut regulierende Drillingsnerv zu nah beieinander liegen. Wird der Sehnerv durch Lichteinfluss gereizt, reagiert auch der Drillingsnerv und löst einen Photischen Niesreflex aus.

Das Ganze ist im Grunde vollkommen ungefährlich, unangenehm könnte es nur werden, wenn man mit dem Auto aus einem dunklen Tunnel herausfährt und direkt in die Sonne hineinfährt. Da muss man dann natürlich aufpassen.

Hier noch ein Video, das den Photischen Niesreflex visualisiert. Dort wird die oben erwähnte Erklärung schon als feststehende Ursache angenommen, was wohl nicht stimmt. Dennoch kann man mal reinschauen, da es leicht verständlich ist.

 

Quelle

Unitymedia – Ein paar Worte zum Service

Der Service von Unitymedia genießt nicht gerade den besten Ruf. Gut, das geht eigentlich allen Providern so, aber gerade Unitymedia scheint ja besonders oft sein Fett weg zu bekommen – so zumindest mein Eindruck. An dieser Stelle will ich dazu aus gegebenem Anlass mal ein paar Worte verlieren.

Mit uns zusammen ist am 05.09.2014 auch unser Anschluss bei Unitymedia umgezogen. Wir beziehen dort 2play, also Internet & Telefon.

Der Umzug ging reibungslos vonstatten, sogar am Wunschtermin, obwohl mir im Vorfeld auf Nachfrage gesagt wurde, ein Wunschtermin sei nicht möglich. Es würde einfach jemand kommen.

Die ersten Geschwindigkeitsmessungen der Leitung waren dann auch sehr gut, es kam sogar mehr an als die versprochenen 100 Mbit/s. Soweit war also zunächst alles gut.

Leider musste ich in den folgenden Tagen feststellen, dass die Verbindung instabil war. Fast täglich gab es Unterbrechungen – mal nur für ein paar Minuten, mal (wenn auch selten) aber bis zu 2 Stunden. Recherchen am Smartphone haben dann gezeigt, dass auch andere Kunden zu der Zeit Probleme hatten, also habe ich mir da nichts weiter bei gedacht und wollte abwarten. Nach vier Wochen hatte ich dann aber genug und habe eine Störungsmeldung bei Unitymedia aufgegeben mit der Log-Datei aus der FritzBox, die die Unterbrechungen aufzeigte.

Das war Montag, also am 06.10. Gleich Dienstag kam per SMS die Ankündigung, dass ein Techniker nötig wäre und die Firma Einkabel sich bei mir melden würde. Heute, also wieder nur einen Tag später, riefen die Jungs von Einkabel auch schon an und machten direkt für den späten Nachmittag einen Termin aus. Vor Ort brauchten die auch nicht lange, um festzustellen, dass der Kollege beim Umzug wohl nicht aufmerksam war und die Dämpfung viel zu hoch war. Das Modem musste viel Kraft aufwenden, um die Verbindung überhaupt aufzubauen und zu halten. Da seien Unterbrechungen kein Wunder.

Nachdem also etwas am Hauptverteiler umgestellt worden war, ergab die Messung an der Anschlussdose sehr gute Ergebnisse, die Unterbrechungen sollen nun Geschichte sein.

Ich habe dann eben auch gleich wieder einen Speedtest gemacht und zum Glück hat sich die Geschwindigkeit nicht verschlechtert.

Unitymedia - Speedtest nach Störungsbehebung
Unitymedia – Speedtest nach Störungsbehebung

Ob das Problem nun wirklich dauerhaft behoben ist, muss sich natürlich erst noch zeigen. Aber unabhängig davon bin ich sehr zufrieden, wie das Ganze abgelaufen ist. Von der Meldung bis zur Behebung sind gerade mal 48 Stunden vergangen. Ich denke, da kann man nicht groß klagen.

Also: Der schlechte Ruf von Unitymedia wird sicherlich seine Gründe haben, ich für meinen Teil bin aber bisher immer zufrieden gewesen.

Festplatten sicher löschen

Jeder weiß (oder sollte wissen) – Löschen ist nicht gleich gelöscht.

Das mag in der ein oder anderen Situation ein Vorteil sein, da man viele verloren geglaubte Daten wiederherstellen kann (gerade vor ein paar Tagen habe ich für eine Bekannte gelöschte Fotos von einer SD-Karte „gerettet“), aber wenn man eine Festplatte verkauft oder weitergibt, möchte man ungerne, dass private (vielleicht sogar intime oder peinliche) Daten vom neuen Besitzer wieder zum Vorschein gebracht werden. Viele unschöne Geschichten darüber gibt es. Einige Leute haben sich das sogar zum Sport gemacht und kaufen bewusst gebrauchte Festplatten, um damit ihren Schabernack zu treiben.

Daher ist es wichtig, vor der Weitergabe einer Festplatte (gilt übrigens auch für USB-Sticks oder Speicherkarten) die Daten „sicher“ zu löschen. Dabei wird nicht nur wie beim einfachen Formatieren laienhaft gesagt das „Inhaltsverzeichnis“ gelöscht, sondern jeder Sektor des Datenträgers wird mit neuen Daten überschrieben. Die alten „darunterliegenden“ Daten verschwinden so unwiderruflich.

Für diesen Zweck gibt es einiges an Software. Zum Teil legt man dafür einen ordentlichen Batzen Geld auf den Ladentisch. Acronis Disk Director ist so ein Beispiel und kostet immerhin 40 €. Allerdings bietet Acronis auch mehr Funktionen als reine Datenvernichtung. Weitere kommerzielle Software ist z.B. PartedMagic für nur $ 4,99. Eine kostenlose Alternative ist Darik’s Boot And Nuke (DBAN). Alle Varianten kommen mit einem bootbaren Datenträger. PartedMagic und DBAN werden vom BSI empfohlen und zu letzterem gibt es sogar eine Anleitung.

Ich wollte jetzt mal ein paar Festplatten auslöschen und da wir im Büro Acronis Disk Director herumliegen hatten (zugegeben mit Version 10 eine nicht mehr aktuelle Version), habe ich es zuerst natürlich damit probiert. Leider hat das sichere Löschen der 150 GB-Festplatte satte 10 Stunden gedauert! Das war mir dann doch etwas zu lang und so habe ich dann DBAN ausprobiert. Und siehe da, mit der Methode „PRNG Stream“ – die in der Anleitung vom BSI auch genutzt wird – dauerte es nur noch etwa 2,5 Stunden.

DBAN in Aktion Quelle: BSI

Woher dieser gewaltige Zeitunterschied kommt, ist mir ein Rätsel. Denn sowohl bei Acronis als auch bei DBAN hatte ich eingestellt, dass nur ein Durchgang durchgeführt wird. Mag sein, dass Acronis eine andere Überschreibmethode verwendet, leider lässt sich diese (zumindest in der vorliegenden Version 10) nicht konfigurieren.

Apropos Durchgänge: Es gibt Lösch-Methoden, die bis zu 35 Durchgänge machen – so oft wird jeder einzelne Sektor mit neuen Daten überschrieben. Das ist allerdings vollkommen unnötig, wie heise online unter Berufung von Forensikexperten schreibt. Ein einzelner Durchgang reicht vollkommen aus, um Daten praktisch unlesbar zu machen. Alles andere ist nur Panikmache. Und warum sollte man unnötig Zeit verschwenden? Wenn jeder Durchgang 2,5 Stunden braucht, dann … ach, lassen wir das.

Also Leute, wenn ihr Speichermedien weitergebt, unbedingt vorher Daten sicher löschen! Mit welcher Software ihr das macht, ist schnuppe – wichtig ist nur, dass es gemacht wird, um vor bösen Überraschungen geschützt zu sein. Und warum sollte man Geld ausgeben, wenn es mit dem kostenlosen Tool DBAN schnell und sicher geht?!

Lightroom 5.5 (CC) – auch nach Kündigung nutzbar

Mittlerweile werden alle, die in irgendeiner Form mit Adobe und deren Software zu tun haben, wissen, dass es die aktuellen professionellen Anwendungen nur noch im Creative Cloud-Abo gibt (um die Vor- und Nachteile davon soll es hier nicht gehen). Einzig Lightroom ist davon ausgenommen und immer noch als traditionelle Kaufversion zu beziehen. Zusätzlich ist Lightroom trotzdem auch Bestandteil der CC und vor allem des „Photography“-Programms – dort bekommt man Photoshop und Lightroom für hierzulande 12,29 € im Monat.

Ich persönlich finde das Photography-Abo-Modell sehr gut, habe es jedoch bisher nicht, weil ich Angst davor hatte, dass ich alle meine Entwicklungen, Tags, Markierungen etc. in Lightroom nach einer Kündigung des Abos verliere.

Dieser Sorge tritt Adobe nun entgegen. Laut Scott Kelby soll man die Abo-Version von Lightroom ab der Version 5.5 auch nutzen können, nachdem man sein Abo gekündigt hat (siehe Video). Es wird dann zwar nicht mehr voll funktionstüchtig sein – das Entwickeln- und das Karten-Modul sind nicht mehr zugänglich – doch alles andere ist weiterhin nutzbar: Man kann seine Bilder weiterhin verwalten, taggen und vor allem mit allen Entwicklungseinstellungen exportieren. Auch das Druck- und das Buch-Modul werden weiterhin verfügbar sein. Und da es im Bibliotheksmodul die Ad-hoc-Bearbeitung gibt, kann man auch weiterhin noch kleine Bearbeitungen an den Bildern durchführen. Auch die Presets lassen sich dort auf die Bilder anwenden.

Im Grunde ist das eine notwendige Sache. Aber man weiß auch, dass sich viele Firmen auch vor Notwendigkeiten drücken. Daher finde ich es toll, dass Adobe diesen Schritt geht. Und ich behaupte mal, dass sich dadurch noch mehr Leute für das Photography-Abo entscheiden – vielleicht demnächst auch ich …

High-ISO-Fotografie

Hier mal ein paar Gedanken von mir zum Thema High-ISO-Fotografie.

Wie ihr als meine Leser wisst, beschäftige ich mich hobbymäßig mit der Fotografie. Und weil ich gleichzeitig auch als Perfektionist gelte, der mit sich selbst und seinen Werken selten zufrieden ist, habe ich bisher immer versucht, die ISO-Einstellung der Kamera so gering wie möglich zu halten, um Rauschen zu vermeiden. Gerade was das betrifft, bin ich super empfindlich und schnell von meiner Kamera enttäuscht. Mir fällt Rauschen sehr schnell auf.

Grundsätzlich ist es natürlich schon richtig, darauf zu achten, dass die ISO gering ist, aber bei mir ging das soweit, dass ich erst gar nicht fotografiert habe, sobald ISO 800 oder zur Not 1.600 nicht mehr ausreichend war. Denn die Bilder sind ja nachher ohnehin kaum brauchbar, weil eben so verrauscht. Ist ja schließlich kein Vollformat-Sensor.

Als wir vor zwei Monaten in Israel im Urlaub waren, bin ich zumindest ein paar Mal über meinen Schatten gesprungen und habe mich etwas öfter getraut, bei schlechten Lichtverhältnissen zu fotografieren. Ein bisschen Angst vor der Schwäche der Kamera war schon vorhanden, aber die musste ich schließlich auch mal überwinden. Und außerdem wollte ich einfach einige Dinge festhalten, die eben nicht hell erleuchtet waren. So kamen doch einige Bilder mit ISO 1.600, ISO 3.200 und sogar ISO 6.400 zusammen.

Zuhause, als die RAW-Bilder dann in Lightroom importiert waren, wurde es spannend. Und ich war selbst etwas überrascht. Natürlich weisen die Bilder zum Teil starkes Rauschen auf. Vieles wird von mir aber einfach übertrieben wahrgenommen, weil die Betrachtung am Bildschirm dazu verleitet, in das Bild hereinzuzoomen. Im Grunde sahen die aber weit weniger schlimm aus als befürchtet. Und da ich einige von den Bildern aufgrund der Motive dann doch mit ins Fotobuch packen wollte, habe ich die ganz normal in Lightroom bearbeitet und gegebenenfalls etwas mehr Rauschunterdrückung angewendet.

Und was soll ich sagen? Im Fotobuch, also ausbelichtet „auf Papier“ ist das Rauschen kaum bis gar nicht wahrnehmbar, wirkt auf jeden Fall überhaupt nicht störend. Dabei musste ich an Scott Kelby denken, der mal bei einer Ausgabe von „The Grid“ gesagt hat, dass er selbst nie Rauschreduzierung macht, weil 99 % der Bilder ohnehin nicht mehr als Webgröße haben oder aber kleine Fotoabzüge sind, wo das Rauschen überhaupt nicht sichtbar ist. Damals dachte ich, er sagt nicht ganz die Wahrheit, das Rauschen stört doch ungemein – nun, ich habe mich geirrt. In der Praxis ist Rauschen wirklich nicht so schlimm wie ich mir bisher eingeredet habe.

Hier mal zwei Beispiele von Bildern meiner Kamera mit ISO 6.400, es handelt sich um die RAW-Datei ohne jegliche Rauschreduzierung.

IMG_6762

Beispiel ISO 6.400
Beispiele für Bilder mit ISO 6.400. Natürlich ist Rauschen sichtbar, gerade bei großen einfarbigen Flächen, aber vollkommen im Rahmen.

Auf jeden Fall werde ich nun etwas weniger Scheu davor haben, bei ungünstigen Lichtverhältnissen zu fotografieren und die ISO hochzustellen. Natürlich hat man da gewisse Abstriche in der Fotoqualität, aber es hält sich dann doch selbst bei meiner APS-C-Kamera im Rahmen. Und dass man wirklich mal ISO 6.400 braucht, ist auch eher selten.

Ich würde sagen: High-ISO-Fotografie ist – auch mit APS-C-Sensoren – besser als ihr Ruf. Lektion gelernt. 🙂

Bildung, IT, Fotografie und was mir sonst noch einfällt …