NVIDIA Prezentuje Chat z RTX, Wykorzystanie Potęgi GPU do Lokalnych Chatów AI

NVIDIA heeft zojuist de eerste publieke versie van de Chat met RTX-demo uitgebracht. Maar nee, je kunt niet met je grafische kaart chatten en vragen: “hoe gaat het met je?”. Hiervoor heb je het programma TechPowerUp GPU-Z nodig. Chat met RTX is iets totaal anders. Stel je een volledig gelokaliseerde AI-chat voor die volledig op je computer draait, aangedreven door de krachtige cores in je GeForce RTX grafische kaart en geen vragen naar cloud chat-servers stuurt. Dat is wat Chat met RTX is. NVIDIA werkt eraan om het een alternatief te maken voor ChatGPT, die al zijn kennis lokaal op je computer opslaat en gebruik maakt van de GeForce RTX GPU als zijn brein.

Tegen het einde van 2024, het beloofde “AI PC-jaar” zoals voorspeld door industrieleiders Microsoft en Intel, heeft NVIDIA al zes jaar lang een opmerkelijk voordeel op het gebied van AI-versnelling. Het bedrijf introduceerde lokaal versnelde AI voor realtime ray tracing-technologie met RTX. Als onderdeel van deze innovatie waren de GeForce RTX grafische kaarten uit 2017 uitgerust met Tensor-cores. Deze componenten verbeterden aanzienlijk de bouw en training van diepe neurale netwerk (DNN) AI in vergelijking met het gebruik van alleen CUDA-cores. Deze vooruitstrevende technologie was een grote stap voorwaarts op het gebied van prestaties en verhoogde de mogelijkheden van grafische kaarten voor door AI aangedreven taken. Naast ruisreductie maakt NVIDIA gebruik van AI-versnelling voor de prestatieverbetering van DLSS-functies. Kun je het spel niet optimaal benutten? Schakel DLSS in en kies een van de beschikbare instellingen totdat het spel soepel draait op de gewenste instellingen.

In onze recente gesprekken met NVIDIA heeft het bedrijf duidelijk verklaard dat het niet erg onder de indruk is van de nieuwste processors van Intel en AMD, die neurale verwerkingsunits (NPU) introduceren; ze bieden prestaties variërend van 10 tot 16 TOPS voor de NPU alleen en niet meer dan 40 TOPS voor het hele systeem (NPU + CPU + iGPU). NVIDIA GeForce RTX-modellen bieden dankzij hun Tensor-cores (!) 20x tot 100x hogere prestaties via enorme AI-versnelling in hun GPU-architectuur. Terwijl op CPU gebaseerde NPU-eenheden de eenvoudige AI-taken op het gebied van tekst en beeld proberen te verwerken, past NVIDIA AI op een geheel ander niveau toe, zelfs vandaag de dag. Denk maar aan het genereren van elke andere frame in DLSS 3 Frame Generation-technologie of het verminderen van ruis in een 4K-scène in games die in realtime draaien op meer dan 60 frames per seconde, afhankelijk van de resolutie. Met andere woorden, GeForce RTX grafische kaarten hebben enorme mogelijkheden voor AI-versnelling in hun hardware, die onbenut blijven wanneer je niet aan het gamen bent. Daarom heeft NVIDIA besloten gamers te laten zien dat het mogelijk is om volledig gelokaliseerde AI-tools draaiende te houden met behulp van deze hardwareversnelling. Het bedrijf staat nog maar aan het begin en een van zijn eerste projecten is Chat met RTX, dat we vandaag in een voorbeeldversie presenteren. Met miljoenen gamers die GeForce RTX grafische kaarten gebruiken, betekent de enorme gebruikersbasis van NVIDIA dat we kunnen verwachten dat het bedrijf een actievere rol zal spelen in het PC AI-ecosysteem door aanvullende AI-ervaringen en tools te bieden voor computers die zijn uitgerust met GeForce RTX grafische kaarten.

Zoals eerder vermeld, is Chat met RTX een op tekst gebaseerd generatief AI-platform, vergelijkbaar met ChatGPT of Copilot, maar een die geen gegevens naar de cloud stuurt of internetdata gebruikt. Het datamodel is wat je aanlevert. Je hebt zelfs de mogelijkheid om te kiezen tussen de Llama2- en Mistral AI-modellen. Voor de technische Chat met RTX-demo levert NVIDIA Llama2 en Mistral samen met hun datamodellen, die bijgewerkt worden tot halverwege 2022.

In dit artikel zullen we Chat met RTX testen om je de mogelijkheden te laten zien van deze krachtige, volledig offline AI-chat voor gamers.

Veelgestelde vragen:

1. Wat is Chat met RTX?
Chat met RTX is een op tekst gebaseerd generatief AI-platform dat gelokaliseerde AI-chats biedt voor gamers.

2. Hoe maakt Chat met RTX gebruik van GeForce RTX GPU-cores?
Chat met RTX maakt gebruik van de krachtige GeForce RTX GPU-cores voor versnelde AI-chats.

3. Vertrouwt Chat met RTX op de cloud of internetdata?
Nee, Chat met RTX werkt volledig offline en vertrouwt niet op de cloud of internetdata.

4. Welke AI-modellen zijn beschikbaar in Chat met RTX?
De beschikbare AI-modellen in Chat met RTX zijn Llama2 en Mistral.

5. Hoe kan ik gegevens aanleveren voor Chat met RTX?
Als gebruiker kun je gegevens aanleveren die door Chat met RTX worden gebruikt.

6. Welke mogelijkheden biedt Chat met RTX voor gamers?
Chat met RTX biedt krachtige, volledig offline AI-chats voor gamers.

Gerelateerde links:
NVIDIA Homepage

The source of the article is from the blog publicsectortravel.org.uk