用户名:
密码:
用户反馈
① 新闻管理
添加新闻
② 政策管理
添加政策
③ 法定规划
添加国空规划
④ 资料管理
添加资料
⑤ 用户权限
1-AI课程学员
添加学员
MJ账号分组
2-AI图库管理
添加图库
3-AI新闻网站
添加信息
4-AI模型管理
添加模型
精准搜索
添加精准
知识库
添加知识库
规划问答
添加信息
小匠QQ微信群宣传
添加推荐
数据网址
添加网站
微信文章管理
课件系统
添加视频
一周热点整理
[ 首页 ]
[ 常用工具 ]
格式化工具
段落合并工具
飞书
当前:新闻编辑 |
标题
如何安装Flash atten
来源
255
链接
时间
2024-07-04 10:07:34
1、首先查看cuuda的版本,使用cmd命令提示符下,输入 nvidia-smi 2、进入网址:https://pytorch.org/get-started/locally/ 找到下载对应的cuuda和pytorch的命令,pip安装 3、pip debug --verbose,根据输出里面的Compatible tags来选择兼容的wheel文件。 4、根据显示的版本,到https://github.com/bdashore3/flash-attention/releases下载 5、pip install timm