Neuchips geht Partnerschaft mit Vecow und GSH ein, um die Verarbeitung proprietärer Daten mit Offline Gen AI zu beschleunigen

06.03.25 06:48 Uhr

Durch die Verwendung von Karten der Viper-Serie von Neuchips bietet die Zusammenarbeit auch Energieeffizienz und Offline-LLMs, um Unternehmen ein Maximum an Datenschutz und Sicherheit zu bieten.

TAIPEI, 6. März 2025 /PRNewswire/ -- Im Vorfeld der Embedded World 2025 gibt Neuchips, ein führender Anbieter von anwendungsspezifischen integrierten Schaltungen (ASICs) für künstliche Intelligenz (KI), eine Zusammenarbeit mit ShareGuru von Vecow und Golden Smart Home (GSH) Technology Corp. bekannt. Die Partnerschaft zielt darauf ab, die SQL-Datenverarbeitung durch eine private, sichere und energieeffiziente KI-Lösung zu revolutionieren, die über natürlichsprachliche Anfragen Echtzeiteinblicke aus unternehmenseigenen Datenbanken liefert.

Neuchips partners with GSH and Vecow to launch AI solution that converts conversations to SQL for seamless database queries.

Besuchen Sie Neuchips und Vecow in Halle 3, Stand #3-449 auf der Embedded World 2025 (11.–13. März, Nürnberg, Deutschland).

„Unsere Zusammenarbeit mit Vecow und GSH repräsentiert die Zukunft des industriellen KI-Einsatzes", sagt Ken Lau, Geschäftsführer von Neuchips. „Auf der Embedded World 2025 werden die Besucher am Stand von Vecow erleben, wie die einzigartigen Fähigkeiten unserer Viper-KI-Beschleunigerkarte – einschließlich der Unterstützung von 12B-Parametermodellen bei nur 45 W Leistungsaufnahme – die robusten industriellen Edge-KI-Computing-Systeme von Vecow und die ShareGuru SLM-Lösungen von GSH ergänzen. Diese leistungsstarke Kombination ermöglicht eine sichere und effiziente KI-Verarbeitung von proprietären Daten, die den hohen Anforderungen moderner Industrieumgebungen gerecht wird. Wir sind stolz darauf, mit Vecow zusammenzuarbeiten, um diese generative KI-Innovation in den Bereich der unternehmensorientierten Anwendungen zu bringen."

„Da generative KI-Anwendungen vor Ort zunehmen, steigt die Nachfrage nach multimodalen großen Sprachmodellen (LLMs) rapide an", sagt Joseph Huang, Exekutiv-Vizepräsident bei Vecow. „Als Anbieter von KI-Computing-Lösungen arbeitet Vecow mit Neuchips zusammen, um innovative RAG-basierte LLM-Lösungen zu entwickeln, die es Anwendern ermöglichen, auf die neuesten Daten zuzugreifen, ohne Modelle zu trainieren, und so relevantere und hochwertigere Ergebnisse zu erzielen. Dies ist unverzichtbar für unsere Kunden, die eine kostengünstige, kompakte und stromsparende KI-Workstation suchen, die herkömmliche Cloud-basierte GPU-Lösungen übertrifft."

Bündelung der Kräfte für die ultimative KI-gesteuerte Datenverarbeitungslösung

Da die Komplexität von Datenbanken zunimmt und SQL-Kenntnisse nach wie vor Mangelware sind, kommt es in Unternehmen zu erheblichen Verzögerungen bei der Gewinnung wichtiger Erkenntnisse aus Daten. Online-KI-Modelle können jedoch aufgrund des fehlenden Schutzes proprietärer Daten nicht verwendet werden.

Um diese Probleme für Unternehmen aller Branchen zu lösen, nutzt die bahnbrechende Lösung die Vecow ECX-3100 RAG Edge AI Inference Workstation, eine RAG-aktivierte (Retrieval-Augmented Generation) LLM-Computing-Plattform. Darauf läuft die ShareGuru QA 2.0-Lösung von GSH, die auf der ShareGuru SLM-Plattform basiert und eine einzige LLM-Karte von Neuchips verwendet – die Gen-AI-Karte der Viper-Serie.

In Kombination ermöglicht die Lösung die Verwendung menschlicher Sprache für die Erstellung von SQL-Abfragen, was diese zugänglicher und effizienter macht und gleichzeitig die Kosten für SQL-Experten reduziert. Darüber hat sie die folgenden Vorteile:

  • Maximaler Datenschutz und Sicherheit: Die Offline-Karte von Neuchips führt die ShareGuru-Lösung und -Plattform lokal aus
  • Hohe Genauigkeit: Durch KI-Power-Query-Validierung
  • Hohe Leistungseffizienz: Die Viper-Serie von Neuchips bietet 45 W Leistungseffizienz mit einem Modell mit 12 Milliarden Parametern

KI-Beschleunigerkarte der Viper-Serie von Neuchips

Die auf der COMPUTEX 2024 vorgestellte Viper-Serie entlastet die CPU von mehr als 90 % der für generative KI erforderlichen Ressourcen, um das volle Potenzial von LLMs auszuschöpfen. Sie zeichnet sich auf dem Markt durch Folgendes aus:

  • Zusätzliche 32-GB-Speicherkapazität
  • Native Unterstützung des BF16 Structured Language Model
  • KI-Beschleunigerchip Raptor Gen von Neuchips, vorgestellt auf der CES 2024

Mit Blick auf das Jahr 2026 plant Neuchips, sich auf stromsparende, multimodale ASICs zu konzentrieren, um die Leistung weiter zu steigern.

Informationen zu Neuchips

Neuchips steht an der Spitze der KI-ASIC-Lösungen und leistet Pionierarbeit bei der Entwicklung spezieller Hardware für DLRM und LLM. Mit unserem engagierten Expertenteam, unserem Einsatz für Innovationen und unserer starken Präsenz in Branchenorganisationen sind wir bereit, die Zukunft der KI-Hardware zu gestalten und eine neue Ära der Effizienz und Leistung einzuläuten.

Weitere Informationen erhalten Sie unter: http://www.neuchips.ai/

Foto – https://mma.prnewswire.com/media/2634187/SQL_Agent_banner.jpg

Cision View original content:https://www.prnewswire.com/news-releases/neuchips-geht-partnerschaft-mit-vecow-und-gsh-ein-um-die-verarbeitung-proprietarer-daten-mit-offline-gen-ai-zu-beschleunigen-302394243.html