Informationen zu Cookies und lokalen Einstellungen

Cookies und lokale Einstellungen sind kleine Datenpakete, die es uns und Ihnen erleichtern eine optimal bedienbare Web-Seite anzubieten. Sie entscheiden, welche Cookies und lokale Einstellungen sie zulassen und welche sie ablehnen.

Der Anbieter der Anwendung ist Ihre jeweilige Volksbank und Raiffeisenbank.

Informationen zum Datenschutz entnehmen Sie bitte den Datenschutzhinweisen Ihrer jeweiligen Volks- und Raiffeisenbank.

Notwendige Cookies helfen dabei, Ihnen die Funktionen der Webseite zugängig zu machen, indem sie Grundfunktionen die zuletzt angesehen Wertpapiere und Ihre Entscheidung für oder gegen die Nutzung der jeweiligen Cookies speichert. Die Webseite wird ohne diese Cookies nicht so funktionieren, wie es geplant ist.

Name Anbieter Zweck Ablauf Typ Empfänger der Daten  
CookieConsent8733 Volksbank Kraichgau eG Um diese Cookiebar auszublenden. 1 Jahr Server-Cookie Infront Financial Technology GmbH
Die Cookie-Erklärung wurde das letzte Mal am 17.05.2026 von Infront Financial Technology GmbH aktualisiert.

Volksbank Kraichgau eG

Bitte mindestens 3 Zeichen eingeben.

Nachrichtenübersicht

BUSINESS WIRE: TetraMem gibt Meilenstein bei 22-nm-Multi-Level-RRAM-SoC für analoges In-Memory-Computing bekannt

17.05.2026 - 05:38:06

MITTEILUNG UEBERMITTELT VON BUSINESS WIRE. FUER DEN INHALT IST ALLEIN DAS BERICHTENDE UNTERNEHMEN VERANTWORTLICH.

SAN JOSE, Kalifornien --(BUSINESS WIRE)-- 17.05.2026 --

TetraMem Inc., ein im Silicon Valley ansässiges Halbleiterunternehmen, das Lösungen für analoges In-Memory-Computing (IMC) entwickelt, gab heute den erfolgreichen Tape-out, die Fertigung und die erste Siliziumvalidierung seiner MLX200-Plattform bekannt, einem auf 22-nm-Multi-Level-RRAM basierenden analogen IMC-System-on-Chip (SoC).

Diese Pressemitteilung enthält multimediale Inhalte. Die vollständige Mitteilung hier ansehen: https://www.businesswire.com/news/home/20260516193666/de/

Dieser Erfolg markiert einen bedeutenden Schritt in Richtung der Kommerzialisierung analoger Rechenarchitekturen, die auf neuen nichtflüchtigen Speichertechnologien basieren und die wachsenden Herausforderungen hinsichtlich Datenbewegung, Stromverbrauch und thermischer Einschränkungen in modernen KI-Systemen angehen.

Da KI-Workloads weiter zunehmen, wird die Systemleistung zunehmend durch die Kosten für die Datenbewegung zwischen Speicher- und Recheneinheiten eingeschränkt. Analoges In-Memory-Computing bietet einen grundlegend anderen Ansatz, indem Berechnungen direkt innerhalb von Speicherarrays durchgeführt werden, was den Datenverkehr erheblich reduziert und die Effizienz auf Systemebene verbessert. Die MLX200-Plattform von TetraMem integriert Multi-Level-RRAM-Arrays mit Mixed-Signal-Rechenmodulen, um Vektor-Matrix-Operationen mit hohem Durchsatz innerhalb des Speichers zu ermöglichen und gleichzeitig die Kompatibilität mit fortschrittlichen CMOS-Prozessen zu gewährleisten.

Die im TSMC-22-nm-Prozess demonstrierte Multi-Level-RRAM-Technologie bietet wichtige Eigenschaften, die für den praktischen Einsatz erforderlich sind, darunter CMOS-Kompatibilität bei minimaler zusätzlicher Prozesskomplexität, Betrieb mit niedriger Spannung und geringem Stromverbrauch, starke Retentions- und Lebensdauereigenschaften sowie eine hohe Multi-Level-Fähigkeit, die eine verbesserte Speicher- und Rechendichte unterstützt. Erste Siliziumergebnisse zeigen eine konsistente Funktionalität über alle Arrays hinweg und untermauern die Tragfähigkeit dieses Ansatzes sowohl für eingebettete nichtflüchtige Speicher als auch für Compute-in-Memory-Anwendungen.

Dieser Meilenstein baut auf TetraMems früheren Arbeiten an der MX100-Plattform auf, die im 65-nm-CMOS-Prozess von TSMC gefertigt wurde. Dort demonstrierte das Unternehmen Multi-Level-RRAM-Bauelemente mit Tausenden von Leitfähigkeitsstufen („Thousands of conductance levels in memristors integrated on CMOS“, Nature, März 2023) sowie hochpräzise analoge Rechenfähigkeiten („Programming memristor arrays with arbitrarily high precision for analog computing“, Science, Februar 2024). Diese früheren Ergebnisse schufen eine solide wissenschaftliche und technische Grundlage für die Skalierung der Technologie auf fortschrittlichere Knoten.

Seit 2019 arbeitet TetraMem eng mit der weltweit führenden Halbleiter-Foundry zusammen, um die RRAM-Technologie von der frühen Forschungsphase hin zu serienreifem Silizium weiterzuentwickeln. Die bei 22 nm erzielten Fortschritte spiegeln die kontinuierliche Weiterentwicklung in den Bereichen Prozessintegration, Bauelement-Uniformität und Co-Design auf Systemebene wider.

Die Plattformen MLX200 und MLX201 sind darauf ausgelegt, energie- und latenzempfindliche Edge-AI-Anwendungen zu unterstützen, darunter Sprach- und Audioverarbeitung, Wearables, IoT-Systeme und Always-on-Sensorik. Die Bereitstellung von Evaluierungsmustern wird voraussichtlich in der zweiten Hälfte des Jahres 2026 beginnen, und Multi-Level-RRAM-Speicher-IP steht zur Evaluierung und potenziellen Lizenzierung zur Verfügung.

Dr. Glenn Ge, Mitbegründer und CEO von TetraMem, kommentierte:„Dieser Meilenstein spiegelt die jahrelange enge Zusammenarbeit mit unserem Foundry-Partner TSMC wider und demonstriert die Machbarkeit, Multi-Level-RRAM und analoges In-Memory-Computing von einem Durchbruch in der Rechnerarchitektur in kommerzielles Silizium mit fortschrittlichen Knoten zu übertragen. Wir glauben, dass dieser Ansatz einen praktischen Weg zur Verbesserung der Energieeffizienz und Skalierbarkeit für KI-Systeme der nächsten Generation bietet.“

Die erfolgreiche Realisierung der MLX200-Plattform unterstreicht die Machbarkeit von auf Multi-Level-RRAM basierendem analogem Computing auf fortschrittlichen Halbleiterprozessen. TetraMem wird diese Technologie weiterentwickeln, um neue KI-Workloads mit verbesserter Energieeffizienz und Systemskalierbarkeit zu unterstützen.

Über TetraMem

TetraMem ist ein in Silicon Valley ansässiges Halbleiterunternehmen, das Pionierarbeit im Bereich des analogen In-Memory-Computing unter Verwendung von Multi-Level-RRAM-Technologie leistet. Seine Architektur integriert Speicher und Rechenleistung, um den Datenverkehr deutlich zu reduzieren und die Energieeffizienz für KI-Workloads zu verbessern. Mit einer starken Grundlage im Co-Design von Bauelementen, Schaltungen und Systemen treibt TetraMem skalierbare Lösungen für Edge-KI und zukünftiges Hochleistungsrechnen voran und arbeitet eng mit führenden Foundries und Ökosystempartnern zusammen, um bahnbrechende Technologien aus der Grundlagenforschung in die kommerzielle Produktion mit variablen Stückzahlen zu bringen.

Die Ausgangssprache, in der der Originaltext veröffentlicht wird, ist die offizielle und autorisierte Version. Übersetzungen werden zur besseren Verständigung mitgeliefert. Nur die Sprachversion, die im Original veröffentlicht wurde, ist rechtsgültig. Gleichen Sie deshalb Übersetzungen mit der originalen Sprachversion der Veröffentlichung ab.

Medienkontakt:
Glenn Ge
pr@tetramem.com

Seitenanfang