场景:在家远程办公,开着 Zoom 会议,同时让 Ollama 跑 llama3.2:7b 处理一批文本。
会议进行到一半,同事停下来问:
"你那边有飞机吗?"
没有飞机。是我的 MacBook Pro。
资源占用实况
- CPU:98%(全是 Ollama)
- 内存:14.2 GB / 16 GB
- 风扇转速:显示 "MAX"(温控软件上限)
- 机身温度:可以煎蛋(约 58°C)
解决方案
有几个选项,按照"妥协程度"排序:
- 关掉本地模型,用 API(最简单,最贵)
- 换一台有独显的电脑(最有效,最贵)
- 开会时关掉 Ollama(最现实)
- 买降噪耳机发给同事(最有创意)
现实选择: 我把会议静音了,然后继续跑模型。