Raspberry Pi versus Cray XT 6m Supercomputer – MD5-Hash-Kollisionen berechnen mit dem Raspberry Pi

Der Raspberry Pi ist ein kleines Board mit ARM11- Prozessor (ein ARM1176JZF-S um genau zu sein, mit ARMv6 Befehlssatz), welches über einen 100 Mbit Ethernet-Port, HDMI, Analog Video, GPIO-Pins, SPI, I²C, UART und zwei USB-Schnittstellen verfügt. Der Prozessor ist übrigens identisch mit der im Apple iPhone der ersten Generation verbauten CPU.

Das kommt in der Verpackung, eine SD-Karte ist nicht dabei.

Das kommt in der Verpackung, eine SD-Karte ist nicht dabei.

Das Besondere ist der Preis, der Raspberry Pi kostet nur 25-30$ und ist für den Einsatz in Schulen vorgesehen. In England ist er inklusive T-Shirt und Versand nach Deutschland für 34 € zu haben. Aufgrund seiner niedrigen Leistungsaufnahme von nur 3,5 Watt (lüfterlos und ohne Kühlkörper), seiner geringen Größe (etwa Kreditkartenformat, aber durch die Konnektoren ca. 1,5 cm hoch) und des günstigen Preises eignet sich der Raspberry Pi für energiesparende Eigenentwicklungen wie etwa ein NAS, einen kleiner Router oder ein eigenes kleines Mediacenter. Als Massenspeicher fungiert eine SD-Karte, die beispielsweise mit einer angepassten Linux-Version, wie z.B. Raspbian “wheezy”, einem modifizierten Debian, bespielt werden kann.

Die Verwendung der angepassten Distribution ist sehr zu empfehlen, da diese Version im Gegensatz zu den Debian-ARM Versionen die Hardware Floating-Point-Unterstützung des ARM11 auch wirklich ausnutzen. Bei der Übersetzung von Source-Paketen sollte auch immer die GCC Compiler-Optionen

-mcpu=arm1176jzf-s -mfpu=vfp -mfloat-abi=hard

angegeben werden, damit wirklich die Hardware-Floating-Point Unterstützung aktiviert wird. Ansonsten werden die Floating-Point-Operationen per Library in Software durchgeführt, was naturgemäß sehr viel länger dauert (Faktor 10). Die Ubuntu-Arm Distribution ist übrigens nicht für den Raspberry Pi geeignet, da sie als Mindestanforderung den ARMv7-Befehlssatz (ab ARM Cortex A8) voraussetzt.

Kleine ARM-Kunde und Tablet-Tipps

ARM-Prozessoren, bzw. von den Herstellern in System on  a Chip (SoC)  integrierte ARM-Kerne, treiben übrigens so ziemlich alle aktuellen Android Smartphones und Tablets an. Auch die Apple-A5 SoC im iPhone und iPad verwenden ARM-Prozessorkerne. Übrigens sind neben dem Hauptprozessor für die Benutzerschnittstelle (auf dem das Android oder das  iOS läuft) auch fast immer mehrere zusätzliche ARM-Kerne in einem Mobiltelefon verbaut. Leistungsschwächere, aber energiesparende “kleinere” ARM-Varianten werden beispielsweise für den Kommunikationsprozessor (das “Radio”) des Telefons eingesetzt, welcher die GSM und UMTS-Kommunikation abwickelt. Auch in fast allen Bluetooth-Chipsätzen und  GPS-Chipsätzen steckt jeweils ein weiterer kleiner ARM-Kern. Die Wahrscheinlichkeit ist also sehr hoch, dass in Ihrem Smartphone vier oder mehr ARM-Kerne in Chipsätzen “verbaut” sind.

Die Nummerierung der Befehlssätze ARMvX darf nicht mit der der Bezeichnung der Architektur verwechselt werden, siehe auch http://de.wikipedia.org/wiki/ARM-Architektur. Übrigens findet sich hier eine schöne Zuordnung von ARM-Befehlssatzversionen zu den korrespondierenden ARM-Architekturen und den zugehörigen Handelsnamen der SoC ARM-Implementierungen einiger Hersteller. Diese Aufstellung kann bei der Auswahl eines Android-Tablets in Hinsicht auf zu erwartende CPU-Leistung sehr hilfreich sein. (Unterhalb Cortex A8 – Finger weg!)  Brauchbare Tablets mit Cortex A8 sind schon für knapp über 100 Euro erhältlich. Eine dem iPad 3 vergleichbare Performance kann aber erst einem Cortex A9 basierten Gerät mit mehreren Kernen abverlangt werden.

MD5-Hash-Kollision

Um die Leistungsfähigkeit der ARM11-Prozessors auf die Probe zu stellen, wurde kein klassischen Benchmark eingesetzt, sondern die MD5 Collision Demo von Peter Selinger für den Raspberry Pi kompiliert. Hier bei handelt es sich um einen Algorithmus, der einen Angriff auf einen MD5 Hashwert vornimmt und eine Kollision erzeugt. Mit so einer Hash-Kollision kann zweites Dokument oder ein zweites Binary erzeugen werden, dass einen identischen MD5 Hash zu einer Originaldatei besitzt. Der Algorithmus startet immer mit einem Zufallswert für die Berechnung einer Hash-Kollision, so dass es immer unterschiedlich lange dauert bis eine Kollision gefunden wird. Startet man den Prozess aber mehrmals auf einer Maschine mit mehreren Kernen, so steigt die Wahrscheinlichkeit recht schnell an ein Ergebnis zu kommen. Der Algorithmus parallelisiert also nicht die selber die Berechnung, sondern profitiert vom abweichenden Zufallsstartwert auf jedem Kern.

PC versus …

Getestet wurde zunächst mit einem single core Atom Netbook (2 Stunden 46 Minuten) und dann mit einer 8-Kern-Maschine (zwei Xeon Quad Core Prozessoren), dem Publikumsrechner des ZIM für Mitarbeiter der Hochschule. Diese Maschine benötigte nur 16 Minuten und 6 Sekunden um eine Kollision zu finden. Wohlgemerkt einer der Kerne hatte eine Kollision gefunden, der letzte Kern benötigte fast drei Stunden. (siehe Abbildung)

Das top-Kommando ("1" für die Ansicht aller Kerne)

Das top-Kommando ("1" für die Ansicht aller Kerne)

… CRAY versus ….

Den Cray XT 6m Supercomputer der Universität Duisburg-Essen konnte ich bereits im Juni 2010 mit der gleichen „Rechenaufgabe“ testen. Ich hatte seinerzeit allerdings nur 300 der insgesamt 4128 Kerne zur Verfügung, einer der Kerne fand nach 56 Sekunden eine Hash-Kollision. Auf der Cray kann ein Job automatisiert auf allen zur Verfügung stehenden Kernen gestartet werden.

… Raspberry PI

Und der gute Raspberry Pi? Ein Testlauf brachte nach 30 Stunden und 15 Minuten eine Hash-Kollision zum Vorschein. Wie beschrieben, es handelt sich um keinen wirklichen Benchmark. Zwei weitere Durchgänge endeten nach 19Stunden 10 Minuten und 29 Stunden und 28 Minuten. Aber wie sieht denn nun die Energiebilanz des Raspberrys im Vergleich mit der Cray aus?

Preiswerter und leiser als ein Cray Supercomputer bei etwa gleichem Energieverbrauch bezogen auf die Rechenleistung

Preiswerter und leiser, aber auch sehr viel langsamer als ein Cray Supercomputer bei etwa gleichem Energieverbrauch bezogen auf die Rechenleistung

Die zwei Cray-Schränke an der Universität Duisburg-Essen benötigen je 40kW und die erzeugte Wärme per Klimatisierung abzuführen wird jeweils die gleiche Leistung benötigt. Also insgesamt 160 KW bzw. umgerechnet auf den im Experiment genutzten Anteil der 300 Kerne ca. 11.6 KW. Der Energieverbrauch in 56 Sekunden beträgt dann 0,18 KWh. Der Raspberry Pi nimmt eine Leistung von 0,0035 KW auf und verbraucht daher in 30,25 Stunden 0,106 KWh. Wenn man die Klimatisierung nicht berücksichtigen würde, ergäbe sich überraschenderweise ein etwa ähnlicher Energieverbrauch pro Rechenleistung!

Veröffentlicht unter Allgemein, Code & Kernel, Trends & Entwicklungen | Verschlagwortet mit , , , , , , | Schreib einen Kommentar

Studentischer Aufsatzwettbewerb zum Thema Urheberrecht

Das Preisgeld von 5000 Euro wurde von der Stiftung der hessischen Rechtsanwaltschaft ausgelobt. Einsendeschluss ist der 15.12.2012. Genaueres findet man in diesem PDF.

Der Titel der Ausschreibung lautet Kulturflatrate, Kulturwertmark oder Three strikes and you are out: Wie soll mit Kreativität im Internet umgegangen werden? Den Begriff „Three strikes“ musste ich mir aber auch erst mal „ergoogeln“. Es geht darum, dass ein Täter beim „dritten Mal“ strenger bestraft wird (siehe Wikipedia) Bei der Verletzung des Urheberrechts ist das aber eigentlich kein Zeichen von Härte der Gerichte. Stattdessen offenbart sich hier der Zweifel der Rechtsprechung, ob die angelegten Rechts- und Unrechtsmaßstäbe in der Gesellschaft überhaupt verankert sind und vom Täter verstanden werden. Daher läßt man beim ersten und zweiten Mal Milde walten.

Für diejenigen, die noch nicht ganz „drin“ sind im Thema, sei das Glossar Urheberrecht für Anfänger von Zeit-Online empfohlen. Da werden Begriffe von A wie „Abmahnanwalt“ bis Z wie „Zitate“ verständlich erklärt. Und wer sich kulturhistorisch in das Thema einlesen möchte, dem lege ich das Essay Wie erwirbt der Mensch Wissen, wie wendet er es an und wie behandelt das Recht diesen Vorgang? des Wirtschaftshistorikers Eckhard Höffner nahe.

Höffner schreibt z.B. „Pflanzen lernen nach unserem Verständnis nicht, sondern entwickeln sich weiter durch Selektion, durch Absterben oder Überleben (Ausbreitung).“ Das ist für Höffner auf einer Skala die Position Null, die bedeutet „jede Übernahme von Wissen ist verboten oder unmöglich“ entgegen der Position Eins, die für „jede Übernahme von Wissen ist erlaubt und möglich“ steht. Höffner bezieht sich auf Aristoteles wenn er sagt, dass sich der Mensch von allen anderen Lebewesen dadurch unterscheidet, dass er „am meisten Lust zur Nachahmung” habe und „seine ersten Fertigkeiten durch Nachahmung” erwerbe. Der Artikel behandelt die Mechanismen des Wissensaufbaus und des Wissenstransfers in der Wissenschaftswelt und schließlich den Aspekt des Geldverdienens mit Wissen und mit Ideen: „Der Konsument ist derjenige, der das Geschützte lesen, hören oder auf sonstige Art rezipieren will. Er hat zugleich das Geld, um das sich die Geschützten streiten, und um seine Aufmerksamkeit buhlen die Geschützten.“

Veröffentlicht unter Allgemein | Verschlagwortet mit , | Schreib einen Kommentar

Warmer Rückenwind von ganz oben

Am 25.6.2012 hat die Enquete-Kommission Internet und digitale Gesellschaft des deutschen Bundestages ein Papier mit Handlungsempfehlungen zum Unterthema „Bildung und Forschung“ verabschiedet. Allen an der Hochschule, die das Thema „IT“ nicht grundsätzlich ausblenden, sei das 28-seitige PDF zum Lesen empfohlen. Man darf aber keine spektakulären Dinge erwarten oder Vorschläge, für revolutionäre Umwälzungen. Stattdessen wird man zu vielen Schlagworten, die uns heute beschäftigen, Bestätigungen finden. Die Botschaften sind:

  • Medienkompetenz stärken
  • E-Learning fördern
  • Open Access favorisieren
  • Netzwerke bilden
  • Infrastruktur ausbauen

Erfreulich ist auch, dass das Papier in der Projektgruppe mit weitgehender Harmonie zwischen allen Fraktionen entstanden ist. Es gibt einen Video-Stream von der Sitzung am 25.6.2012, in der die Projektgruppe ihr Ergebnis der Gesamt-Enquete zur Beschlussfassung vorgelegt hat. Nur die Fraktion der Linken hatte einige Ergänzungs- und Änderungs-Anträge, die aber keine grundsätzlich andere Positionen darstellten. Sie wurden mehrheitlich abgelehnt, aber zum Teil als Sondervotum in das Papier aufgenommen. Die Begründungen, warum diese Punkte nicht den Segen der anderen Parteien fanden, kann man dem Video entnehmen. Insgesamt wird das Papier einstimmig angenommen. Hier ist eine Zusammenfassung auf einer Web-Seite, in der auch das Video eingebettet ist.

Veröffentlicht unter Tagungen & Veranstaltungen, Trends & Entwicklungen | Verschlagwortet mit , , , , , | Schreib einen Kommentar

OPCO 2012 – ein erster Zwischenstand

Wie in diesem Blog bereits kurz berichtet,  läuft seit April (und noch bis 21. Juli) ein „Massive Open Online-Course“ zur kritischen Diskussion über die E-Learning-Trends des aktuellen „Horizon“-Reports: http://opco12.de/.  Der Report selbst befindet sich in deutscher Version hier: http://www.campus-innovation.de/node/1509.

Leider sind wir aufgrund der Arbeitsbelastung mit dem Umstieg auf Moodle 2.x  an der UDE nicht dazu gekommen uns so aktiv in den Kurs einzubringen wie wir es gewünscht hatten. Jedoch wollen wir in diesem Beitrag ein paar Schlaglicher der Diskussion der ersten Themen zusammenfassen.

Das erste Thema – gewissermaßen zum Warmlaufen  – bezog sich auf den Horizon Report (und indirekt Trendreports im Allgemeinen).  Zum Beispiel wiesen etliche beteiligte Blogger darauf hin, dass eine sechsjährige Vorausschau für das E-Learning sehr gewagt wäre (z. B. http://whriesenbeck.wordpress.com/2012/04/22/opco12-ein-lupenreiner-report/)  und dass oft schon vorhergesagte Trends sich als kurzfristige Hypes entpuppt   hätten.  Jede/r wird sicher zustimmen, dass bei einem so dynamischen und komplexen Bereich wie E-Learning/Lerntechnologien usw.  Voraussagen nicht einfach sind.  Da ich seit Jahren Horizon wie auch Gartner verfolge bin ich aber weniger überrascht oder enttäuscht, weil Einschätzungen gelegentlich daneben liegen, sondern sehe diese Reports durchaus als überwiegend nützliche Prognosen an.

Die nächsten beiden Themen im Kurs wie im Horizon Report waren Mobile Apps und  Tablet Computing, die wir hier zusammen betrachten wollen. Mit der neuen Geräteklasse, die v.a. durch Apples iPad etabliert wurde, aber eben auch durch die Konkurrenten Android und Windows, haben sich die Erwartungen  an das „Überall-Computing“ weiter erhöht und verändert. Tablets (wie Smartphones) sind als Endgeräte hochpersonalisiert – jede/r hat seine/ihre eigene App-Sammlung. Die Trennung in eine private und eine dienstliche Arbeitsumgebung wird zunehmend irritierend. Folglich setzt sich immer mehr die Forderung durch, in Universitäten, Schulen und Unternehmen die Voraussetzungen für „Bring your own device“ (BYOD) zu schaffen. Damit stellen sich eine Reihe von Fragen für diese Organisationen und deren IT-Zentren, z. B.

  •  Wie kann eine hinreichende Infrastruktur – Netze (WLAN), Steckdosen, Arbeitsplätze – gewährleistet werden
  • Welcher Support wird für diese Geräte geleistet?
  • Sicherheit

Jedoch zeigen sich auch andere, vielleicht nicht auf den ersten Blick offensichtliche Probleme, z.B. verschärft sich evtl. der „digital divide“  in Kindergärten, Schulen, Universitäten bzw. wie kann dem entgegengewirkt werden?

Infrastrukturen und Support sind ja erst mal nur Voraussetzungen für neue Formen von E-Learning bzw. M-Learning.  In der OPCO Diskussion ist dabei durchaus umstritten,  welchen Wert für das Lernen die neuen Geräte haben. Zum einen werden – wie schon seit Jahren für das E-Learning allgemein – Veränderungen erwartet wie eine größere Lernerzentriertheit, Aufwertung des informellen Lernens, stärkere Orientierung auf Kollaboration, Veränderung der Lehrendenrolle hin zu Moderation und Mentoring von Lernprozessen. Die neuen Geräte und Apps sollen diese Entwicklung u.a. befördern

Demgegenüber sehen andere, z. B. der Schweizer Doebeli-Honnegger http://opco12.de/files/2012/05/Doebeli/Thesen.pdf bisher keine didaktische Innovation speziell durch Tablets und nur ein begrenztes Einsatzgebiet im Kindergarten und der Elementarschule.
„Frawadi“ weist darauf hin, dass an manchen Hochschulen bereits ein Gegentrend herrscht, nämlich die Aussperrung solcher Gerät aus den Lehrveranstaltungen wegen des Problems der „geteilten Aufmerksamkeit“ (http://frawadi.wordpress.com/2012/05/21/mobile-gerate-an-der-hochschule-byod-als-synonym-fur-das-bose-8/).

Die bisherige Diskussion zeigt so, dass sich durch die neuen Entwicklungen viele Fragen auf unterschiedlichen Ebenen stellen. Diese Fragen anzugehen, bedeutet in der Praxis v.a. dass verschiedene Bereiche von der Infrastruktur, über die E-learning-Experten (didaktisch und technisch) bis hin zu IT-Sicherheitsfachleuten und Medienspezialisten eng zusammenarbeiten müssen, um eine gemeinsame Position und Strategie zu M-Learning für die jeweilige Institution zu erarbeiten.

Veröffentlicht unter Trends & Entwicklungen | Verschlagwortet mit , , , , | Schreib einen Kommentar

RFID/NFC-Blocker

Die Speicherung personenbezogener Daten auf Plastikkarten ist nichts Neues. Ab den 1970er Jahren gab es die ersten Kreditkarten mit Formprägungen zur mechanischen Übernahme von Kreditkartennummern auf Papierzettel – einige erinnern sich vielleicht noch an das obligatorische „ritsch-ratsch“-Geräusch bei Bezahlvorgängen mit frühen Kreditkarten. Später zogen elektromagnetische und kontaktbasierte Techniken nach. Mittlerweile ist die digitale Datenspeicherung auf Chips Standard, und es gibt hauptsächlich zwei Varianten der Datenübertragung: die kontaktgebundene und die kontaktlose. Letztere ist auch als „Radio frequency identification“ (RFID) oder „Near field communication“ (NFC) bekannt und ist u.a. durch die ISO-Normen 14443, 18000, 18092, 21481 beschrieben.

Technisch gesehen handelt es sich bei RFID-Karten zum Teil um rein passive Systeme auf denen nur Daten gespeichert werden können. Möglich sind aber auch aktive Systeme also keine reinen Speicher-Chips sondern Embedded Computer, die kontaktlos vom RFID-Lesegerät per Induktionsschleife mit Strom versorgt werden. Ein kleiner Computer auf einer RFID-Karte kann aktiv Hashwerte aus einem geheimen Schlüssel berechnen, und so moderne kryptografische Verfahren unterstützen. Passive Systeme sind trotz Verschlüsselung schon gehackt worden (link Heise myfare- hack http://www.heise.de/security/meldung/Schwaechen-des-RFID-Systems-Mifare-Classic-bestaetigt-191623.html ).

Beim Auslesen eines RFID-Modules wird Energie mittels eines Hochfrequenzfeldes auf den Chip übertragen. Der Chip erzeugt zum Antworten aber nicht etwa ein eigenes Feld sondern schwächt das Feld des Lesegerätes moduliert ab. Diese Abschwächung kann vom Lesegerät, aber auch von einem, mit einem eigenen Empfänger ausgestatteten, potentiellen Angreifer in der Nähe detektiert werden.

Bei Near Field Communication handelt es sich um eine Erweiterung dieser Technologie um die klassische Aufteilung Lesegerät und mehr oder weniger passive Chipkarte aufzubrechen. NFC-fähige Geräte wie z.B. das Samsung Nexus S, das Nexus Galaxy oder auch das neue Samsung S3 Mobiltelefon (und vermutlich auch das zukünftige iPhone 5) können Lese- und Senderolle einnehmen. Die Verschlüsselungsmöglichkeiten und die beschränkte Reichweite lassen zahlreiche Anwendungen für das mobile Bezahlen zu. Die Reichweite von NFC ist auf ca. vier Zentimeter begrenzt um sicheres Payment zu ermöglichen. Neuerdings werden auch Kreditkarten mit NFC-Chips ausgestattet (http://www.heise.de/newsticker/meldung/NFC-Kreditkarten-bereiten-den-Boden-fuer-Handy-Zahlsysteme-1586330.html). NFC ist zu RFID abwärtskompatibel, so das auch alle RFID-Karten per NFC ausgelesen werden können.

Die Vorteile von RFID sind in der Warenwirtschaft und Logistik unbestreitbar, ebenso würden auch die Autoren nur ungerne auf Komfortmerkmale wie z.B. kontaktlose Schließanlagen oder Plastikgeld an einer Kasse verzichten wollen.

Bei allen Vorteilen dieser Technik, ist leider anzumerken, dass der im Gegensatz zu mechanisch oder rein visuell basierten Datenübertragungsverfahren von einem selbst kontrollierten „Sendevorgang“, z.B. durch das freiwillige Vorzeigen einer Karte zum laser-basierten Einscannen, bei der Nutzung von RFID verändert wird in einen dauerhaften latenten „Sendevorgang“, der jederzeit durch ein Lesegerät getriggert werden kann.

RFID-Karten lassen sich aus kurzer Entfernung prinzipiell auch mit üblichen (NFC-fähigen) Smartphones auslesen. Zu solchen Karten gehört übrigens auch der neue Personalausweis (nPA/ePerso).

Ein Material, welches effektiv gegen einen ungewollten Zugriff „von außen“ hilft, ist Aluminium. Da man seinen neuen Personal- oder Dienstausweis oder eine Geldkarte nun nicht unbedingt regelmäßig wie eine Tafel Schokolade ein- und auspacken möchte, gibt es Hersteller, die praktische Schutzhüllen für RFID-basierte Karten anbieten. Wir haben eine solche RFID-Schutzhülle aus Cryptalloy® einmal getestet.

Und so sieht eine solche RFID-Schutzhülle aus:

Zunächst wurden ein Personalausweis und ein Dienstausweis ohne RFID-Schutzhülle mit Hilfe zweier Android-Apps gescannt:

Man sieht: gewisse Daten kommen an. So sollte es sein – zumindest wenn man selbst eine solche Karte benutzen möchte, z.B. weil man Zugang benötigt oder einen Kaffee in der Kantine bezahlen möchte.

Und wenn man danach eine solche Karte wieder in die Hülle zurück steckt…

…sieht man nichts mehr. Hervorragend – das ist „Safer NFC“ wie es sein sollte.

Koautor dieses Artikels ist Andreas Bischoff.

Veröffentlicht unter Allgemein, Trends & Entwicklungen | Verschlagwortet mit , , , | Schreib einen Kommentar