LlamaなどのローカルLLMを動かした際のGeForceとM4 Macのベンチマーク比較

LlamaなどのローカルLLM(大規模言語モデル)を動かす際のNVIDIA GeForceシリーズとApple M4チップ(特にM4 ProやM4 Max)の性能比較について、最新の情報を基に詳しく解説します。 M4 M…

続きを読む »

CUDAを回避してPTXプログラミングを行うとは?

NVIDIAのGPUを活用する際、一般的にはCUDA(Compute Unified Device Architecture)を利用します。しかし、「CUDAを回避しPTXプログラミングを行う」とは、CUDAの高レベルA…

続きを読む »

nvidia-smi の使い方と便利な活用法

1. nvidia-smi とは? nvidia-smi (NVIDIA System Management Interface) は、NVIDIA製GPUの状態を確認・管理するためのCLIツールです。GPUの使用状況や…

続きを読む »