成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
INT8
关注
0
综合
百科
VIP
热门
动态
论文
精华
Hardware for converting floating-point to the microscaling (MX) format
Arxiv
0+阅读 · 11月5日
"Give Me BF16 or Give Me Death"? Accuracy-Performance Trade-Offs in LLM Quantization
Arxiv
0+阅读 · 11月4日
Quantized neural network for complex hologram generation
Arxiv
0+阅读 · 10月31日
INT-FlashAttention: Enabling Flash Attention for INT8 Quantization
Arxiv
0+阅读 · 9月26日
INT-FlashAttention: Enabling Flash Attention for INT8 Quantization
Arxiv
0+阅读 · 9月25日
Quantized neural network for complex hologram generation
Arxiv
0+阅读 · 8月25日
An Energy-Efficient Artefact Detection Accelerator on FPGAs for Hyper-Spectral Satellite Imagery
Arxiv
0+阅读 · 7月24日
Low-ordered Orthogonal Voxel Finite Element with INT8 Tensor Cores for GPU-based Explicit Elastic Wave Propagation Analysis
Arxiv
0+阅读 · 4月21日
Efficient Approaches for GEMM Acceleration on Leading AI-Optimized FPGAs
Arxiv
0+阅读 · 4月17日
OzMAC: An Energy-Efficient Sparsity-Exploiting Multiply-Accumulate-Unit Design for DL Inference
Arxiv
0+阅读 · 2月29日
FP8-BERT: Post-Training Quantization for Transformer
Arxiv
0+阅读 · 2023年12月12日
Make RepVGG Greater Again: A Quantization-aware Approach
Arxiv
0+阅读 · 2023年12月11日
MaxEVA: Maximizing the Efficiency of Matrix Multiplication on Versal AI Engine
Arxiv
0+阅读 · 2023年11月14日
MaxEVA: Maximizing the Efficiency of Matrix Multiplication on Versal AI Engine
Arxiv
0+阅读 · 2023年11月8日
Watermarking LLMs with Weight Quantization
Arxiv
0+阅读 · 2023年10月17日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top