Industrielle Fertigung
Industrielles Internet der Dinge | Industrielle Materialien | Gerätewartung und Reparatur | Industrielle Programmierung |
home  MfgRobots >> Industrielle Fertigung >  >> Industrial Internet of Things >> Eingebettet

Sechs Innovationen zur Verbesserung der kryptografischen Hardwareleistung

Um die Einführung der Kryptografie von morgen zu beschleunigen, muss die Branche entwickeln einfallsreiche Hardwareverbesserungen und optimierte Softwarelösungen, die zusammenarbeiten, um die Rechenanforderungen zu verringern. Die gute Nachricht ist, dass wir keineswegs bei Null anfangen.

Es ist sehr wahrscheinlich, dass in Zukunft alles verschlüsselt wird, von Ihrer Einkaufsliste bis hin zu Ihren Krankenakten. Das ist eine spannende Vorstellung, aber der Bereich der Kryptographie ist besonders unruhig, und es wird jetzt viel daran gearbeitet, dass Daten auch in Zukunft gesichert werden können.

Auf jedes Datenbyte können mehrere kryptografische Operationen angewendet werden, da die Daten über mehrere Schichten der Software, des Netzwerks und der Speicherstacks kryptografisch geschützt sind. Diese Prozesse unterstützen hochkritische Geschäftsfunktionen, die starke Sicherheit erfordern, aber auf Hardwareebene gehören sie zu den rechenintensivsten Vorgängen, die es gibt. Und die Nachfrage nach kryptografischer Berechnung wächst weiter, da die Menge der jährlich generierten Daten exponentiell ansteigt und Unternehmen größere Schlüsselgrößen sowie mehrere gleichzeitige kryptografische Algorithmen einsetzen, um die Sicherheit zu erhöhen. Währenddessen steigen diese Computeranforderungen weiter an.

Um das Problem der kryptografischen Rechenkosten zu bekämpfen, hat die Hardwareindustrie daran gearbeitet, neue Richtlinien, Verbesserungen der Mikroarchitektur und innovative Methoden zur Softwareoptimierung zu entwickeln. Starke Beispiele für diesen Fortschritt im Laufe der Jahre sind die Einführung von Prozessorbefehlen mit fester Funktion der nächsten Generation, die die Rechenanforderungen der symmetrischen Verschlüsselung nach Advanced Encryption Standard (AES) und neuerer FIPS-Algorithmen reduziert haben. Infolgedessen haben sich Unternehmen in den letzten 10 Jahren zunehmend dazu verpflichtet, starke kryptografische Verschlüsselungen zu implementieren, um Daten und Kommunikation besser zu sichern.

Da sich die Fortschritte beim Quantencomputing jedoch weiter beschleunigen, kann die Sicherheitseffizienz sowohl symmetrischer als auch asymmetrischer Verschlüsselungsalgorithmen gefährdet sein. Eine Erhöhung der Schlüsselgrößen (von 128 auf 256 Bit) kann dazu beitragen, symmetrische Algorithmen (wie AES) widerstandsfähiger gegen Quantenangriffe zu machen, aber auch hier bringt diese Lösung höhere Rechenkosten mit sich. Asymmetrische Kryptoalgorithmen (wie RSA und ECDSA) werden sehr wahrscheinlich ebenfalls zu kurz kommen. Viele haben gesagt, dass die rohe Leistung von Quantencomputern den Tod der Verschlüsselung bedeuten wird, aber wir glauben nicht, dass dies der Fall sein wird.

Die oben erwähnten etablierten Verschlüsselungsverfahren werden wahrscheinlich durch neue post-quantenkryptographische Ansätze ersetzt. Die Branche arbeitet aktiv an der Umstellung auf neue Kryptografiestandards, die diese bevorstehenden Sicherheitsherausforderungen nach der Quantenzeit angehen können. Tatsächlich wurden bereits viele Vorschläge für den NIST Post-Quantum Cryptography (PQC)-Wettbewerb eingereicht, der unterschiedliche Anforderungen in Bezug auf Schlüsselgröße, Speicher- und Berechnungsspezifikationen stellt.

Da die Ära der Quantencomputer anbricht, muss sich die Branche zusammenschließen, um neue Methoden und Standards zu entwickeln.

Wie wird diese Verschiebung aussehen? Der Übergang wird langwierig sein, und die bestehende Kryptographie wird bestehen bleiben, bis die Industrie in der Lage ist, neue quantenresistente Algorithmen vollständig zu übernehmen. Wir gehen davon aus, dass dies eine hohe Rechenlast verursachen wird und dass Unternehmen keine stärkere Verschlüsselung einsetzen werden, bis die zugrunde liegenden Post-Quanten-Algorithmen aus Sicht der Rechenleistung wirtschaftlich nachhaltig sind.

Um die Einführung der Kryptographie von morgen zu beschleunigen, muss die Branche einfallsreiche Hardwareverbesserungen und optimierte Softwarelösungen entwickeln, die zusammenarbeiten, um die Rechenanforderungen zu senken. Die gute Nachricht ist, dass wir keinesfalls bei Null anfangen.

Hier sind sechs wichtige Beispiele für kryptografische Leistungsverbesserungen und Innovationen, die heute stattfinden:

1. Kryptografische Algorithmen für Transport Layer Security (TLS) — TLS-Protokolle arbeiten in zwei Phasen. Zuerst ist die Sitzungsinitiierungsphase. Wenn eine Sitzung initiiert wird, muss der Client private Nachrichten an den Server unter Verwendung einer Verschlüsselungsmethode mit öffentlichem Schlüssel (oft RSA) übermitteln, bevor das Protokoll einen gemeinsamen geheimen Schlüssel generiert. RSA basiert auf modularer Exponentiation, einem kostenintensiven Rechenmechanismus, der die meisten der TLS-Sitzungsinitiierungs-Prozessorzyklen erzeugt. Die Kombination von RSA mit einem Algorithmus wie Elliptic Curve Cryptography (ECC) unter Verwendung von Techniken wie Perfect Forward Secrecy kann noch mehr Sicherheit bieten.

In der zweiten Phase werden die Massendaten übertragen. Die Protokolle verschlüsseln die Datenpakete, um die Vertraulichkeit zu gewährleisten, und nutzen den Message Authentication Code (MAC) basierend auf einem kryptografischen Hash der Daten, um gegen jeden Versuch, die Daten während der Übertragung zu ändern, zu schützen. Verschlüsselungs- und Authentifizierungsalgorithmen schützen TLS-Massendatentransfers, und in vielen Fällen kann das Zusammenfügen der beiden die Gesamtleistung erhöhen. Einige Verschlüsselungssammlungen wie AES-GCM definieren sogar kombinierte „Verschlüsselungs- und Authentifizierungs“-Modi.

2. Kryptographie mit öffentlichen Schlüsseln — Um eine verbesserte Leistung für Multiplikationsprozesse mit „großen Zahlen“ zu unterstützen, die häufig in Verschlüsselungen mit öffentlichem Schlüssel zu finden sind, erstellen einige Anbieter neue Befehlssätze. Zum Beispiel haben Intels Ice Lake-basierte Prozessoren die Unterstützung der AVX512 Integer Fused Multiply Add (AVX512_IFMA) Instruction Set Architecture (ISA) eingeführt. Die Befehle multiplizieren acht - 52-Bit-Ganzzahlen ohne Vorzeichen, die sich in den breiten 512-Bit-(ZMM)-Registern befinden, erzeugen die obere und untere Hälfte des Ergebnisses und addieren sie zum 64-Bit-Akkumulator. In Kombination mit Softwareoptimierungstechniken (wie Multi-Puffer-Verarbeitung) können diese Anweisungen nicht nur für RSA, sondern auch für ECC erhebliche Leistungsverbesserungen bieten.

3. Symmetrische Verschlüsselung — Zwei Befehlsverbesserungen erhöhen die Leistung für die symmetrische AES-Verschlüsselung:vektorisiertes AES (VAES) und vektorisiertes Carryless Multiply. Die VAES-Befehle wurden erweitert, um die Vektorverarbeitung von bis zu vier AES-Blöcken (128-Bit) gleichzeitig unter Verwendung der breiten 512-Bit (ZMM)-Register zu unterstützen, und bieten bei richtiger Verwendung einen Leistungsvorteil für alle AES-Modi von Betrieb. Einige Anbieter haben auch die Unterstützung für die Vektorverarbeitung von bis zu vier übertragslosen Multiplikationsoperationen gleichzeitig unter Verwendung der breiten 512-Bit (ZMM)-Register erweitert, um zusätzliche Leistung für Galois-Hashing und die weit verbreitete AES-GCM-Verschlüsselung zu bieten.

4. Hashing — Es ist möglich, die Rechenleistung zu steigern, indem Sie neue Erweiterungen für den Secure Hash Algorithm (SHA) erstellen, der Daten beliebiger Größe in eine feste Größe von 256 Bit verdaut. Diese Erweiterungen enthalten Anweisungen, die eine signifikante Verbesserung der SHA-256-Leistung bieten, sodass mehr kryptografisches Hashing verwendet werden kann.

5. Funktion Stitching — Function Stitching wurde bereits 2010 eingeführt und ist eine Technik, um zwei Algorithmen zu optimieren, die normalerweise in Kombination, aber sequentiell ausgeführt werden, wie AES-CBC und SHA256, und sie zu einem einzigen optimierten Algorithmus zu formen, der auf die Maximierung der Prozessorressourcen und des Durchsatzes ausgerichtet ist. Das Ergebnis ist eine feinkörnige Verschachtelung der Anweisungen jedes Algorithmus, sodass beide Algorithmen gleichzeitig ausgeführt werden. Dies ermöglicht Prozessorausführungseinheiten, die ansonsten aufgrund von Datenabhängigkeiten oder Befehlslatenzen beim Ausführen eines einzelnen Algorithmus im Leerlauf wären, Befehle von dem anderen Algorithmus auszuführen und umgekehrt. Dies ist sehr relevant, da Algorithmen immer noch strenge Abhängigkeiten aufweisen, die moderne Mikroprozessoren nicht vollständig parallelisieren können.

6. Mehrfachpuffer — Multi-Buffer ist eine innovative und effiziente Technik zur parallelen Verarbeitung mehrerer unabhängiger Datenpuffer für kryptografische Algorithmen. Anbieter haben diese Technik bereits für Algorithmen wie Hashing und symmetrische Verschlüsselung implementiert. Die gleichzeitige Verarbeitung mehrerer Puffer kann zu erheblichen Leistungsverbesserungen führen – sowohl für den Fall, in dem der Code Einzelbefehle mit mehreren Daten (AVX/AVX2/AVX512)-Befehle nutzen kann, als auch für den Fall, dass dies nicht möglich ist. Dies ist wichtig, da mehr Daten eine kryptografische Verarbeitung erfordern und die Verfügbarkeit breiterer Prozessordatenpfade es der Branche ermöglicht, Schritt zu halten.

Echtes Quantencomputing wird kommen, bevor wir es wissen, und die Denkweise der Branche hat bereits begonnen, sich von „Sollten diese Daten verschlüsselt werden?“ zu ändern. zu „Warum sind diese Daten nicht verschlüsselt?“ Als Gemeinschaft müssen wir uns darauf konzentrieren, fortschrittliche Kryptographie auf Hardwareebene zu implementieren, zusammen mit begleitenden algorithmischen und Software-Innovationen, um die Herausforderungen einer Post-Quanten-Welt zu meistern. Dies wird zu weiteren Durchbrüchen bei Leistung und Sicherheit bei einer Vielzahl wichtiger Verschlüsselungsalgorithmen führen und den Übergang zu Kryptographieschemata der nächsten Generation beschleunigen, die die Branche im kommenden Jahrzehnt benötigen wird.


Wajdi Feghali ist ein Intel Fellow.

>> Dieser Artikel wurde ursprünglich auf unserer Schwesterseite EE . veröffentlicht Zeiten.


Verwandte Inhalte:

Für mehr Embedded, abonnieren Sie den wöchentlichen E-Mail-Newsletter von Embedded.


Eingebettet

  1. Bauen Sie Ihre Cloud-Infrastruktur für Leistung und Effizienz auf
  2. Hardwarebeschleuniger bedienen KI-Anwendungen
  3. Portwell:Mini-ITX powered by Intel Core i Familie mit bis zu sechs Kernen Leistung
  4. TECHWAY:Kintex-7 FPGA PCIe-Plattform zur Steigerung der Datenratenleistung mit 12 HSS-Links
  5. Sechs Grundlagen für erfolgreiche sensorgestützte Anwendungen
  6. Erschließen Sie den Wert des IoT mit Leistungsüberwachung
  7. KI in der Lieferkette:Sechs Hindernisse für die Erzielung von Ergebnissen
  8. Erzielung von Geschäftsergebnissen mit Big-Data-Projekten und KI
  9. Wie digitale Zwillinge die Logistikleistung steigern können
  10. Intelligenz als Service:Steigerung der Effizienz in Liefernetzwerken