📢 Gate廣場專屬 #WXTM创作大赛# 正式開啓!
聚焦 CandyDrop 第59期 —— MinoTari (WXTM),總獎池 70,000 枚 WXTM 等你贏!
🎯 關於 MinoTari (WXTM)
Tari 是一個以數字資產爲核心的區塊鏈協議,由 Rust 構建,致力於爲創作者提供設計全新數字體驗的平台。
通過 Tari,數字稀缺資產(如收藏品、遊戲資產等)將成爲創作者拓展商業價值的新方式。
🎨 活動時間:
2025年8月7日 17:00 - 8月12日 24:00(UTC+8)
📌 參與方式:
在 Gate廣場發布與 WXTM 或相關活動(充值 / 交易 / CandyDrop)相關的原創內容
內容不少於 100 字,形式不限(觀點分析、教程分享、圖文創意等)
添加標籤: #WXTM创作大赛# 和 #WXTM#
附本人活動截圖(如充值記錄、交易頁面或 CandyDrop 報名圖)
🏆 獎勵設置(共計 70,000 枚 WXTM):
一等獎(1名):20,000 枚 WXTM
二等獎(3名):10,000 枚 WXTM
三等獎(10名):2,000 枚 WXTM
📋 評選標準:
內容質量(主題相關、邏輯清晰、有深度)
用戶互動熱度(點讚、評論)
附帶參與截圖者優先
📄 活動說明:
內容必須原創,禁止抄襲和小號刷量行爲
獲獎用戶需完成 Gate廣場實名
大模型長文本處理能力突破 40萬token 新一輪技術競爭開啓
長文本能力:大模型廠商新一輪角力場
大模型正以驚人的速度提升其長文本處理能力,從4000 token飆升至40萬 token。這一技術進步似乎成爲了大模型公司的新"標配"。
國際上,OpenAI、Anthropic等公司紛紛將上下文長度擴展到數萬甚至10萬 token。國內,月之暗面推出的Kimi Chat更是支持高達40萬 token的輸入。港中文和MIT聯合開發的LongLoRA技術也將模型文本長度大幅提升。
衆多頂級大模型公司和研究機構都將長文本能力作爲重點升級方向。這些企業也恰恰是當前資本市場的寵兒,獲得了大量融資支持。
長文本技術的突破意味着什麼?表面上看,這使得模型可以處理更長的輸入文本,閱讀能力顯著增強。更深層次來看,它推動了大模型在金融、法律、科研等專業領域的應用落地。
然而,文本長度並非越長越好。研究表明,模型支持更長上下文與效果提升並不能直接畫等號。關鍵在於模型如何有效利用上下文信息。
目前業界對長文本的探索仍在繼續,40萬 token可能只是個開始。這項技術有望解決大模型的一些痛點問題,同時推動產業應用落地,標志着大模型進入了新的發展階段。
爲何要"卷"長文本?
月之暗面創始人楊植麟表示,正是由於輸入長度限制,造成了許多大模型應用落地困境。例如在虛擬角色、遊戲開發、專業領域分析等場景中,短文本能力不足會嚴重影響效果。
長文本技術對未來的Agent和AI原生應用也很重要。它能幫助Agent進行更好的規劃決策,爲AI應用提供連貫的用戶體驗。
楊植麟認爲,大模型的上限由單步能力和執行步驟數共同決定,其中執行步驟數即上下文長度。長文本能提供更多上下文和細節信息,有助於模型更準確地理解和推理。
通過月之暗面新發布的Kimi Chat,我們可以一窺長文本時代大模型的新功能:
這些功能顯示,對話機器人正向着專業化、個性化、深度化的方向發展,有望成爲產業落地的新抓手。
楊植麟預計,國內大模型市場將分爲toB和toC兩個陣營,在toC領域可能會出現基於自研模型的超級應用。
長文本的"不可能三角"困境
長文本技術面臨着文本長度、注意力和算力的"不可能三角"困境:
這一困境的根源在於Transformer結構中的自注意力機制。該機制使計算量隨上下文長度呈平方級增長,導致長文本處理面臨巨大挑戰。
目前主要有三種解決方案:
第一種方案通過切分長文本並檢索短文本片段來處理。第二種方案重構自注意力計算方式,如LongLoRA技術。第三種方案則專注於模型本身的優化。
長文本的"不可能三角"困境暫時還無解,但明確了大模型廠商的探索方向:在文本長度、注意力和算力三者間尋求最佳平衡點,以處理足夠信息的同時兼顧注意力計算和算力成本。