8월 19일 본 사이트의 소식에 따르면 무어의 스레드 “KUAE 지능형 컴퓨팅 클러스터” 1.2 버전이 공식 출시되었습니다. 이 버전은 소프트웨어 및 하드웨어 수준의 포괄성을 최적화하고 64K 긴 텍스트를 지원하며 전체 범위의 LLaMA2 대형 모델, Baichuan, Yayi, Qwen2, Mixtral(MoE 8x7B) 및 기타 모델을 추가합니다.
콘텐츠 업데이트:
MFU 프로모션# #
킬로카드 클러스터를 사용하여 1,000억 개의 모델을 훈련하면 MFU가 10% 증가했습니다.
- 밀도 모델 클러스터 학습 MFU가 최대 55%에 도달합니다.
Flash Attention2 최적화
통합 MUSA SDK 플랫폼 최적화 Flash Attention2 기술은 대규모 모델 훈련 효율성과 리소스 활용도를 향상시킵니다.
64K 긴 텍스트 지원
긴 텍스트를 위한 향상된 대형 모델 긴 텍스트 이해 및 생성 작업을 처리하는 능력을 최적화하기 위한 교육 지원.
혼합 전문가 모델 지원 MoE
All2All muDNN에 최적화됨 연산자는 다양한 형태에서 매트릭스 작업을 최적화하고 MoE 대규모 모델 교육을 지원합니다.
중단점에서 계속 교육
검사점 읽기 및 쓰기 성능 향상 , 훈련 효율성을 향상시킵니다. ### ## ## ## ## ## ## ############ ## #####딥 스피드는 무어 스레드 GPU에 적응했습니다. 클러스터 Ulysses를 사용하면 향상된 긴 텍스트 학습 지원이 가능합니다.
- 국내외 많은 대형 모델에 적합합니다.
안정성 개선
- 성숙한 소프트웨어 및 하드웨어로 지속적인 안정성 달성 15일 동안 결함 훈련을 실시합니다.
- 모니터링, 자동 진단, 장애 복구 기능을 강화하는 KUAE Aegis 신뢰성 기능을 도입합니다.
시각화/관찰 가능성
- PerfSight 성능 모니터링 시스템 소개, 훈련 중 리소스 소비 및 성능 데이터를 실시간으로 표시합니다.
내장 모델 라이브러리에 새로운 대형 모델이 추가되었습니다
# #LLaMA2 Full 시리즈, Baichuan, Yayi, Qwen2, Mixtral(MoE 8x7B) 및 기타 모델이 추가되었습니다.
위 내용은 Moore Thread 'Kua'e 지능형 컴퓨팅 클러스터 KUAE' 버전 1.2 출시: 64K 긴 텍스트 지원, 대형 모델의 LLaMA2 전체 시리즈 추가 등의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!