Hugging Face: https://huggingface.co/collections/goog ... 621268bb6d
正在LM Studio中下载测试,截图稍后补充
硬件太差了,用的还是8G显存的P104-100矿卡。。。
27B参数的模型本地跑还是有些吃力~
运行一次:我让它从图片获取商品的标题,大概花了15分钟
现在再试试12B参数的模型,还是很慢,将近10分钟
再试试4B参数的模型,很快非常的快,3s出结果
缺点对图片里的中文理解不太行。
對中文的識別和理解,應該是國産的小模型會更在行。
不用額外購置顯卡麼?
底层是 llama.cpp ,支持CPU和GPU。ejsoon 写了: 2025年 3月 13日 15:51不用額外購置顯卡麼?
正浏览此版面之用户: 没有注册用户 和 7 访客