<< 2024-05-22 | 2024-05-24 >>

DailyNote

  • この配信でOllamaというLLMをローカルで実行できる環境の話をリスナーさんから聞けた。
    • 色々モデルを試せるし、せっかくちょっと強めのGPU積んだのでライブ配信でもやってみようと思う。