金のニワトリ (@gosrum)
Step-3.5-Flash 모델에 관심이 있어 ts-bench로 성능 벤치마크를 돌리고 있다는 간단한 언급입니다. 특정 LLM의 성능 검증을 위해 로컬/벤치마크 툴을 사용 중임을 알 수 있습니다.
https://x.com/gosrum/status/2018269364773081370
#step3.5flash #tsbench #benchmark #llm
金のニワトリ (@gosrum)
Step-3.5-Flash 모델에 관심이 있어 ts-bench로 성능 벤치마크를 돌리고 있다는 간단한 언급입니다. 특정 LLM의 성능 검증을 위해 로컬/벤치마크 툴을 사용 중임을 알 수 있습니다.
https://x.com/gosrum/status/2018269364773081370
#step3.5flash #tsbench #benchmark #llm
金のニワトリ (@gosrum)
Step-3.5-Flash 모델에 관심이 있어 ts-bench로 성능 벤치마크를 돌리고 있다는 간단한 언급입니다. 특정 LLM의 성능 검증을 위해 로컬/벤치마크 툴을 사용 중임을 알 수 있습니다.
https://x.com/gosrum/status/2018269364773081370
#step3.5flash #tsbench #benchmark #llm
金のニワトリ (@gosrum)
step-3.5-flash의 ts-bench 결과 발표: 벤치마크에서 GLM-4.7보다 낮은 점수를 기록했으며, gpt-oss-120b와는 동등하거나 그 이하 수준이라는 평가 결과를 공유.
https://x.com/gosrum/status/2018298305676238879
#benchmark #llm #step3.5flash #glm #gptoss
金のニワトリ (@gosrum)
step-3.5-flash의 ts-bench 결과 발표: 벤치마크에서 GLM-4.7보다 낮은 점수를 기록했으며, gpt-oss-120b와는 동등하거나 그 이하 수준이라는 평가 결과를 공유.
https://x.com/gosrum/status/2018298305676238879
#benchmark #llm #step3.5flash #glm #gptoss
Q*Satoshi (@AiXsatoshi)
3층 슬라이딩 윈도우 구조에 한 층만 풀 어텐션을 넣는 하이브리드 설계를 소개하며, 128K 토큰 문서 처리에서 DeepSeek V3.2는 6분, Step 3.5 Flash는 이론상 약 1분으로 훨씬 빠르다고 주장하는 내용입니다.
https://x.com/AiXsatoshi/status/2018194623991300410
#longcontext #attention #deepseek #step3.5flash #llm
Q*Satoshi (@AiXsatoshi)
3층 슬라이딩 윈도우 구조에 한 층만 풀 어텐션을 넣는 하이브리드 설계를 소개하며, 128K 토큰 문서 처리에서 DeepSeek V3.2는 6분, Step 3.5 Flash는 이론상 약 1분으로 훨씬 빠르다고 주장하는 내용입니다.
https://x.com/AiXsatoshi/status/2018194623991300410
#longcontext #attention #deepseek #step3.5flash #llm
CHOI (@arrakis_ai)
StepFun 공식 블로그에 'Step 3.5 Flash' 관련 게시물이 올라왔습니다. 블로그에는 모델 설계와 Sparse MoE 구성, 성능 지표(256K 컨텍스트, 100–300 tok/s) 및 벤치마크 결과 등 상세 정보가 포함되어 있어 모델 성능과 구현 세부를 확인할 수 있습니다.
CHOI (@arrakis_ai)
StepFun 공식 블로그에 'Step 3.5 Flash' 관련 게시물이 올라왔습니다. 블로그에는 모델 설계와 Sparse MoE 구성, 성능 지표(256K 컨텍스트, 100–300 tok/s) 및 벤치마크 결과 등 상세 정보가 포함되어 있어 모델 성능과 구현 세부를 확인할 수 있습니다.