成人深夜视频网站|日韩高清无码久久|中文a√在线天堂|亚洲黄网站在线看|欧美视频 第二页|日本 久草 天堂|高潮无遮挡黄视频|久久一级内射精品|国产操逼一级视频|五月天婷婷色AV

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

下一句會(huì)是什么?我們是否高估了預(yù)測(cè)編碼理論?

0
分享至

文 | 追問(wèn)nextquestion

當(dāng)以ChatGPT為代表的許多大語(yǔ)言模型,能夠?qū)崿F(xiàn)相對(duì)準(zhǔn)確地預(yù)測(cè)大腦對(duì)語(yǔ)言任務(wù)的反應(yīng)時(shí),是否可以認(rèn)為大語(yǔ)言模型捕捉到了大腦語(yǔ)言認(rèn)知加工的一些深層機(jī)制?換言之,大腦也采用類(lèi)似大語(yǔ)言模型的預(yù)測(cè)編碼機(jī)制——不斷預(yù)測(cè)并修正錯(cuò)誤?

這種推論是否經(jīng)得起科學(xué)的檢驗(yàn)?GPT的預(yù)測(cè)與人腦語(yǔ)言反應(yīng)的高度相關(guān),究竟是“認(rèn)知本質(zhì)”,還是只是“統(tǒng)計(jì)上的巧合”?

01 預(yù)測(cè)編碼理論

在20世紀(jì),我們認(rèn)為大腦從感官中提取知識(shí)。21世紀(jì)則見(jiàn)證了一場(chǎng)“奇怪的反轉(zhuǎn)”,大腦被視為一個(gè)推理的器官,會(huì)主動(dòng)地為外部世界發(fā)生的事情構(gòu)建解釋[1]。在這場(chǎng)轉(zhuǎn)變中,預(yù)測(cè)編碼(Predictive coding)理論扮演了重要角色。

20世紀(jì)90年代,心理學(xué)家Karl Friston提出了預(yù)測(cè)編碼理論,提供了一個(gè)關(guān)于大腦如何加工的高層次描述。該理論認(rèn)為,大腦在未來(lái)事件發(fā)生之前就在不斷地嘗試對(duì)其進(jìn)行預(yù)測(cè),然后將預(yù)測(cè)與觀測(cè)進(jìn)行比較,當(dāng)預(yù)測(cè)與實(shí)際的感官輸入不匹配時(shí),大腦會(huì)對(duì)預(yù)測(cè)進(jìn)行調(diào)整與更新以減少這種預(yù)測(cè)誤差(prediction error)。作為一種認(rèn)知理論,預(yù)測(cè)編碼理論為大腦信息加工提供了一種概念簡(jiǎn)潔、機(jī)制合理的具體目標(biāo),獲得了許多研究者的青睞。


?簡(jiǎn)化的感覺(jué)預(yù)測(cè)模型。藍(lán)色箭頭指示如何更新預(yù)測(cè)神經(jīng)元,并傳遞到較低的層次結(jié)構(gòu)級(jí)別。紅色箭頭指示如何生成預(yù)測(cè)誤差并將其進(jìn)給到更高的層次結(jié)構(gòu)級(jí)別。圖源:doi:10.3389/fpsyt.2020.557932.

預(yù)測(cè)編碼理論相關(guān)研究最早可追溯到視覺(jué)加工領(lǐng)域。20世紀(jì)末,Rao和Ballard提出了一種視覺(jué)加工的預(yù)測(cè)編碼模型:高級(jí)視覺(jué)區(qū)域會(huì)對(duì)低級(jí)視覺(jué)區(qū)域的活動(dòng)進(jìn)行預(yù)測(cè),低級(jí)視覺(jué)區(qū)域則反過(guò)來(lái)向高級(jí)視覺(jué)區(qū)域傳遞預(yù)測(cè)誤差,即未能被預(yù)測(cè)的“新奇”信息[2]。通過(guò)模擬分析,他們發(fā)現(xiàn)這種簡(jiǎn)單的層級(jí)架構(gòu)不僅與神經(jīng)解剖學(xué)和生理學(xué)證據(jù)一致,還能解釋一些復(fù)雜的反應(yīng)[1]。

不僅僅是視覺(jué)加工,預(yù)測(cè)編碼也為感知、注意、學(xué)習(xí)、運(yùn)動(dòng)控制等認(rèn)知功能提供了一種統(tǒng)一的框架。以語(yǔ)言加工為例,預(yù)測(cè)編碼理論認(rèn)為,在感知到自然語(yǔ)言的刺激時(shí),大腦會(huì)先發(fā)制人地對(duì)于未來(lái)會(huì)出現(xiàn)的詞語(yǔ)和句子進(jìn)行預(yù)測(cè)。預(yù)測(cè)編碼理論得到了多方證據(jù)支持,一方面,許多研究發(fā)現(xiàn)了與句法或語(yǔ)法不一致詞句有關(guān)的電生理信號(hào);另一方面,體現(xiàn)預(yù)測(cè)編碼理論的神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型(Neural Network Language Models, NNLM)能有效地解釋由自然語(yǔ)言引發(fā)的大腦活動(dòng)。

為什么使用NNLM能如此有效地預(yù)測(cè)大腦對(duì)于自然語(yǔ)言的反應(yīng)?一種頗具吸引力的觀點(diǎn)認(rèn)為,語(yǔ)言模型和大腦是相似的,它們?cè)谡Z(yǔ)言認(rèn)知加工方面具有相同的目標(biāo),即對(duì)未來(lái)即將出現(xiàn)的詞句進(jìn)行預(yù)測(cè)。近期,來(lái)自德克薩斯大學(xué)奧斯汀分校的Antonello和Huth在Neurobiology of Language發(fā)文,對(duì)此觀點(diǎn)提出了質(zhì)疑[3]。


02 神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型

單向的NNLM是一種用于單詞預(yù)測(cè)任務(wù)的人工神經(jīng)網(wǎng)絡(luò),能夠基于語(yǔ)料庫(kù),根據(jù)上文信息生成下一個(gè)單詞的概率分布。例如,上文是“they say his father was a f____”,對(duì)于f開(kāi)頭的單詞,NNLM會(huì)預(yù)測(cè)一系列候選詞出現(xiàn)的概率,對(duì)更有可能出現(xiàn)的詞語(yǔ)(如fisherman)賦予更高的概率[4]。與翻譯、問(wèn)答等需要標(biāo)注數(shù)據(jù)的任務(wù)相比,NNLM的突出優(yōu)勢(shì)在于可使用幾乎所有自然語(yǔ)言文本進(jìn)行訓(xùn)練,擁有學(xué)習(xí)許多不同類(lèi)文本統(tǒng)計(jì)規(guī)律的能力。


?實(shí)驗(yàn)和分析框架的示意圖。(a)(頂部)在兩個(gè)實(shí)驗(yàn)中,參與者在記錄大腦活動(dòng)時(shí)都聆聽(tīng)了有聲讀物的連續(xù)錄音。(底部)參與者聽(tīng)取的文本由深度神經(jīng)網(wǎng)絡(luò)(GPT-2)分析,以量化每個(gè)單詞的上下文概率。使用基于回歸的技術(shù)來(lái)估計(jì)(不同級(jí)別)語(yǔ)言意外性對(duì)連續(xù)記錄中誘發(fā)響應(yīng)的影響。(b)分析的數(shù)據(jù)集:一個(gè)組級(jí)的腦電圖數(shù)據(jù)集和一個(gè)單獨(dú)的主題源源定位的MEG數(shù)據(jù)集。圖源:[4]

近些年來(lái),NNLM也催生了一類(lèi)范式:語(yǔ)言模型微調(diào)(language model fine-tuning)。從已有NNLM中提取出的表征可重新用于其他的語(yǔ)言任務(wù),如識(shí)別命名實(shí)體、情感分析等。研究者發(fā)現(xiàn),根據(jù)NNLMs微調(diào)得到的模型,往往比根據(jù)特定任務(wù)從頭開(kāi)始訓(xùn)練得到的模型表現(xiàn)更優(yōu),微調(diào)后的模型允許使用原始的NNLM學(xué)習(xí)到的語(yǔ)言特征,有助于彌補(bǔ)許多語(yǔ)言任務(wù)訓(xùn)練數(shù)據(jù)的成本問(wèn)題(即手工標(biāo)注數(shù)據(jù)昂貴且有限)[5]。


?圖源:https://www.ruder.io/

目前,最先進(jìn)的NNLM通常包含一系列結(jié)構(gòu)相同的加工模塊(即transformers),其機(jī)制是點(diǎn)積注意力(dot product attention),有選擇性地加工輸入中的一部分元素。每個(gè)transformer的輸出被稱(chēng)為隱藏態(tài)(hidden state),是對(duì)輸入的編碼表征。NNLM的輸入通常是詞嵌入(word embeddings),通過(guò)transformer最終轉(zhuǎn)化為對(duì)下一個(gè)單詞的預(yù)測(cè)。在評(píng)價(jià)NNLM的表現(xiàn)時(shí),研究者常使用困惑度(perplexity)這個(gè)指標(biāo),困惑度越低,意味著模型給實(shí)際的下一個(gè)單詞賦予了越高的概率。

03 神經(jīng)科學(xué)研究中的NNLM

NNLM能夠應(yīng)對(duì)許多不同類(lèi)型的語(yǔ)言任務(wù),因此神經(jīng)科學(xué)家也使用NNLM來(lái)預(yù)測(cè)大腦對(duì)于自然語(yǔ)言的反應(yīng)。研究者建立了使用從語(yǔ)言刺激中導(dǎo)出的特征來(lái)預(yù)測(cè)大腦對(duì)自然語(yǔ)言反應(yīng)的回歸模型,稱(chēng)之為編碼模型(encoding model)。與使用源于非情景化詞嵌入空間的表征相比,使用NNLM生成的表征的編碼模型表現(xiàn)更好,這樣的編碼模型也被稱(chēng)為基于語(yǔ)言模型的編碼模型(LM-based encoding model)。

為什么引入語(yǔ)言模型有助于提升編碼模型在預(yù)測(cè)大腦反應(yīng)時(shí)的表現(xiàn)?一種流行的假設(shè)認(rèn)為,基于語(yǔ)言模型的編碼模型與大腦有相同的目標(biāo)——對(duì)還未出現(xiàn)的單詞進(jìn)行預(yù)測(cè)。

例如,Schrimpf等人(2021)基于語(yǔ)言理解任務(wù)的三大神經(jīng)數(shù)據(jù)集*,考察了多種NNLM的表現(xiàn)。結(jié)果表明,在預(yù)測(cè)大腦對(duì)于語(yǔ)句的神經(jīng)反應(yīng)時(shí),最優(yōu)的模型能對(duì)幾乎100%的可解釋方差進(jìn)行預(yù)測(cè)。此外,他們還發(fā)現(xiàn),模型對(duì)于神經(jīng)數(shù)據(jù)、行為數(shù)據(jù)(即閱讀時(shí)間)的擬合結(jié)果與模型在單詞預(yù)測(cè)任務(wù)中的準(zhǔn)確性之間存在強(qiáng)相關(guān)。這進(jìn)一步表明,單詞預(yù)測(cè)可能是語(yǔ)言認(rèn)知加工的基礎(chǔ)部分[6]。

*注:這些數(shù)據(jù)集包含三組神經(jīng)數(shù)據(jù)。1)逐句呈現(xiàn)條件下閱讀話(huà)題多樣的短篇文字時(shí)的fMRI數(shù)據(jù)(Pereira, 2018);2)逐詞呈現(xiàn)條件下閱讀語(yǔ)法句法各異的句子時(shí)的ECoG數(shù)據(jù)(Fedorenko, 2016);3)聽(tīng)時(shí)長(zhǎng)約5min的故事時(shí)的fMRI血氧信號(hào)時(shí)序數(shù)據(jù)(Blank, 2014)。

Goldstein等人(2021)進(jìn)一步發(fā)現(xiàn),即使去除了簡(jiǎn)單的語(yǔ)境和語(yǔ)義信息(如詞義),也能根據(jù)在詞語(yǔ)出現(xiàn)之前的大腦反應(yīng),顯著地預(yù)測(cè)出NNLM對(duì)未來(lái)詞語(yǔ)的表征[7]。類(lèi)似地,Caucheteux等人(2021)發(fā)現(xiàn),與只使用當(dāng)前語(yǔ)境的信息相比,增加未來(lái)詞語(yǔ)的嵌入有助于提升基于語(yǔ)言模型的編碼模型的表現(xiàn)[8]。

這些研究結(jié)果都試圖表明,擁有更好的詞語(yǔ)預(yù)測(cè)能力的模型也具備更強(qiáng)的編碼能力。我們能否就因此得出“大腦在語(yǔ)言加工時(shí)進(jìn)行了預(yù)測(cè)式編碼”的肯定結(jié)論呢?

04 不同于預(yù)測(cè)編碼的替代解釋

如果大腦可以對(duì)某個(gè)特征進(jìn)行編碼,那么,在其它因素相同的情況下,能和大腦一樣對(duì)同樣特征進(jìn)行編碼的模型將比其他模型表現(xiàn)更好。根據(jù)這一邏輯,過(guò)往研究反推,既然擁有詞語(yǔ)預(yù)測(cè)能力的模型比其他模型在解釋大腦活動(dòng)方面表現(xiàn)更優(yōu),那么大腦也同樣會(huì)對(duì)未來(lái)的詞語(yǔ)進(jìn)行預(yù)測(cè)。

但是,Antonello和Huth對(duì)于這一逆命題保持懷疑態(tài)度。他們還指出,現(xiàn)有的研究證據(jù)都是相關(guān)性數(shù)據(jù),無(wú)法以此得出“因?yàn)檫M(jìn)行了預(yù)測(cè)編碼,所以在預(yù)測(cè)詞語(yǔ)時(shí)表現(xiàn)更好”這樣的因果性推論。

為此,他們展開(kāi)了一項(xiàng)基于fMRI數(shù)據(jù)集使用NNLM的分析研究,并提出了一種不同于預(yù)測(cè)編碼理論的解釋——表征普遍性(representational generality)。他們認(rèn)為,基于語(yǔ)言模型的編碼模型捕捉到了某些普遍信息,因此在預(yù)測(cè)語(yǔ)言任務(wù)中的大腦反應(yīng)時(shí)表現(xiàn)良好。

研究中使用的數(shù)據(jù)集包含5名健康被試在聽(tīng)英語(yǔ)博客故事時(shí)的fMRI數(shù)據(jù)(含訓(xùn)練集與測(cè)試集)。在預(yù)處理后根據(jù)訓(xùn)練集數(shù)據(jù)生成了97種不同的體素級(jí)大腦編碼模型*,使用嶺回歸方法預(yù)測(cè)在測(cè)試集中大腦的血氧反應(yīng),所有被試的平均表現(xiàn)作為編碼模型的表現(xiàn)指標(biāo)。對(duì)于詞語(yǔ)預(yù)測(cè)任務(wù),該研究根據(jù)編碼模型的表征與下一個(gè)詞語(yǔ)的GloVe嵌入進(jìn)行了線(xiàn)性回歸,計(jì)算了此回歸模型對(duì)下一個(gè)詞語(yǔ)概率分布的預(yù)測(cè)與實(shí)際分布之間的交叉熵,并以此作為編碼模型在詞語(yǔ)預(yù)測(cè)任務(wù)中的表現(xiàn)指標(biāo)(即困惑度)。

*注:該研究從多種自然語(yǔ)言處理模型中提取了97種語(yǔ)言表征。具體來(lái)說(shuō),包括3種詞嵌入空間(GloVe、BERT-E和FLAIR)、3種單向語(yǔ)言模型(GPT-2 Small、GPT-2 Medium和Transformer-XL)、2種掩碼雙向語(yǔ)言模型(BERT和ALBERT)、4種常見(jiàn)的可解釋的語(yǔ)言標(biāo)注任務(wù)(命名實(shí)體識(shí)別、詞性標(biāo)注、句子分塊和框架語(yǔ)義解析)以及2種機(jī)器翻譯模型(英中和英德)。完整細(xì)節(jié)可在https://doi .org/10.1162/nol_a_00087中進(jìn)行閱讀。

首先,與過(guò)往研究一致,該研究也發(fā)現(xiàn)了模型的編碼表現(xiàn)與對(duì)下一個(gè)詞語(yǔ)的預(yù)測(cè)表現(xiàn)之間存在高相關(guān)(相關(guān)系數(shù)r=0.847)。然而,高相關(guān)可能與模型表征包含的信息能夠普遍適用于多種語(yǔ)言任務(wù)(包括詞語(yǔ)預(yù)測(cè))有關(guān)。

因此,研究進(jìn)一步分析了每種模型表征對(duì)其他96種表征的預(yù)測(cè)能力,預(yù)測(cè)能力越強(qiáng)意味著表征包含的普遍性信息越多。結(jié)果表明,表征的普遍性與編碼表現(xiàn)之間也存在高相關(guān)(相關(guān)系數(shù)r=0.864)。換言之,編碼表現(xiàn)越好的模型其表征普遍性也越高。

最后,研究還探究了每種模型表征對(duì)于英德翻譯模型表征的預(yù)測(cè)能力,依然得到了高相關(guān)(相關(guān)系數(shù)r=0.780)。該結(jié)果進(jìn)一步說(shuō)明,面向多種語(yǔ)言任務(wù)的遷移能力,而非預(yù)測(cè)能力,才是語(yǔ)言模型表現(xiàn)優(yōu)異的核心原因。

此外,研究還針對(duì)GPT-2 Small和GPT-2 Medium兩個(gè)模型進(jìn)行了分析。這些NNLM模型在處理文本信息時(shí),會(huì)將詞語(yǔ)從模型的第一層開(kāi)始輸入并穿越眾多中間層,在最后一層進(jìn)行下一個(gè)詞的預(yù)測(cè)。假如預(yù)測(cè)編碼理論成立,那么就應(yīng)該觀察到隨著模型深度加深,編碼與預(yù)測(cè)表現(xiàn)都應(yīng)有明顯提升。

考慮位于不同深度的表征的編碼與預(yù)測(cè)表現(xiàn),研究發(fā)現(xiàn)語(yǔ)言模型的編碼表現(xiàn)在模型深度的60%到80%之間達(dá)到了峰值,然后在更深入的后期層次中陡然下降;同時(shí),模型對(duì)于下一個(gè)詞語(yǔ)的預(yù)測(cè)能力,并未隨著到達(dá)最后一層而較中間層有顯著提升。總的來(lái)看,這些結(jié)果都未能為預(yù)測(cè)編碼理論提供支持。


?GPT-2小型、中型編碼模型隨層深變化的編碼表現(xiàn)。圖源:[3]

05 結(jié)語(yǔ)

自ChatGPT以來(lái),語(yǔ)言模型已經(jīng)進(jìn)入了千家萬(wàn)戶(hù)。對(duì)于研究者而言,人工造物能展現(xiàn)出與大腦類(lèi)似或相同的表現(xiàn)自然是令人欣喜的,但因此推斷人類(lèi)的大腦也以語(yǔ)言模型的方式加工信息究竟是否合適?Antonello和Huth的這項(xiàng)研究為我們提供了另一可能的解釋?zhuān)罕碚髌毡樾钥赡懿攀钦Z(yǔ)言模型表現(xiàn)良好的關(guān)鍵之處。NNLM以廣泛的自然語(yǔ)言文本作為訓(xùn)練集,基于此的編碼模型可能抓住了人類(lèi)語(yǔ)言中的某些普遍性信息,因而擁有強(qiáng)大的能力以應(yīng)對(duì)各類(lèi)語(yǔ)言任務(wù)(不僅限于詞語(yǔ)預(yù)測(cè))。

Antonello和Huth認(rèn)為作為一種科學(xué)理論,預(yù)測(cè)編碼理論只是被解釋為“大腦以預(yù)測(cè)作為語(yǔ)言加工的目標(biāo)”顯得太過(guò)模糊,缺乏明確的定義和可證偽的表述。

但他們也沒(méi)有否定預(yù)測(cè)編碼理論。作為一項(xiàng)認(rèn)知理論,預(yù)測(cè)編碼理論能夠解釋許多現(xiàn)象,只不過(guò)在判斷研究證據(jù)是否能為預(yù)測(cè)編碼理論提供支持方面,研究者理應(yīng)更為謹(jǐn)慎些。很多被認(rèn)為支持預(yù)測(cè)編碼的證據(jù),即使在沒(méi)有預(yù)測(cè)編碼的情況下也可能是正確的,本研究提出的表征普遍性便可以用來(lái)解釋這些證據(jù)。

未來(lái)的研究應(yīng)該尋找能夠明確區(qū)分大腦是否進(jìn)行預(yù)測(cè)編碼的獨(dú)特可測(cè)量現(xiàn)象。例如,發(fā)現(xiàn)一些自然存在的、以預(yù)測(cè)編碼作為語(yǔ)言學(xué)習(xí)目標(biāo)的低級(jí)神經(jīng)環(huán)路,或?qū)⒊蔀閺?qiáng)有力的證據(jù)。

參考文獻(xiàn)

[1] Friston, K. (2018). Does predictive coding have a future? Nature Neuroscience, 21(8), 1019–1021. https://doi.org/10.1038/s41593-018-0200-7

[2] Rao, R. P. N., & Ballard, D. H. (1999). Predictive coding in the visual cortex: A functional interpretation of some extra-classical receptive-field effects. Nature Neuroscience, 2(1), 79–87. https://doi.org/10.1038/4580

[3] Antonello, R., & Huth, A. (2024). Predictive Coding or Just Feature Discovery? An Alternative Account of Why Language Models Fit Brain Data. Neurobiology of Language, 5(1), 64–79. https://doi.org/10.1162/nol_a_00087

[4] Heilbron, M., Armeni, K., Schoffelen, J.-M., Hagoort, P., & de Lange, F. P. (2022). A hierarchy of linguistic predictions during natural language comprehension. Proceedings of the National Academy of Sciences, 119(32), e2201968119. https://doi.org/10.1073/pnas.2201968119

[5] Dodge, J., Ilharco, G., Schwartz, R., Farhadi, A., Hajishirzi, H., & Smith, N. (2020). Fine-Tuning Pretrained Language Models: Weight Initializations, Data Orders, and Early Stopping (arXiv:2002.06305). arXiv. https://doi.org/10.48550/arXiv.2002.06305

[6] Schrimpf, M., Blank, I. A., Tuckute, G., Kauf, C., Hosseini, E. A., Kanwisher, N., Tenenbaum, J. B., & Fedorenko, E. (2021). The neural architecture of language: Integrative modeling converges on predictive processing. Proceedings of the National Academy of Sciences, 118(45), e2105646118. https://doi.org/10.1073/pnas.2105646118

[7] Goldstein, A., Zada, Z., Buchnik, E., Schain, M., Price, A., Aubrey, B., Nastase, S. A., Feder, A., Emanuel, D., Cohen, A., Jansen, A., Gazula, H., Choe, G., Rao, A., Kim, S. C., Casto, C., Fanda, L., Doyle, W., Friedman, D., … Hasson, U. (2021). Thinking ahead: Spontaneous prediction in context as a keystone of language in humans and machines. BioRxiv. https://doi.org/10.1101/2020.12.02.403477

[8] Caucheteux, C., Gramfort, A., & King, J.-R. (2021). Long-range and hierarchical language predictions in brains and algorithms (arXiv:2111.14232). arXiv. https://doi.org/10.48550/arXiv.2111.14232

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
作家馬伯庸經(jīng)歷“育兒難題”:兒子語(yǔ)文不好,還得送作文班;其任南京大學(xué)文學(xué)院教授,著有《長(zhǎng)安的荔枝》

作家馬伯庸經(jīng)歷“育兒難題”:兒子語(yǔ)文不好,還得送作文班;其任南京大學(xué)文學(xué)院教授,著有《長(zhǎng)安的荔枝》

FM93浙江交通之聲
2025-08-29 22:51:01
孟村女子葬禮后續(xù):弟弟曬照緬懷,曝姐姐隱忍原因,設(shè)計(jì)師發(fā)聲!

孟村女子葬禮后續(xù):弟弟曬照緬懷,曝姐姐隱忍原因,設(shè)計(jì)師發(fā)聲!

古希臘掌管松餅的神
2025-08-29 21:52:46
莫德里奇獻(xiàn)助攻,奇克破517天球荒!AC米蘭2球被吹,仍2-0勝萊切

莫德里奇獻(xiàn)助攻,奇克破517天球荒!AC米蘭2球被吹,仍2-0勝萊切

釘釘陌上花開(kāi)
2025-08-30 04:47:03
為什么政權(quán)會(huì)走向反國(guó)家和人民利益的地步?

為什么政權(quán)會(huì)走向反國(guó)家和人民利益的地步?

君子天道
2025-06-16 21:09:16
廣東男子暴打女同事,猛砸腦袋,滿(mǎn)臉血險(xiǎn)要人命,網(wǎng)友卻偏袒維護(hù)

廣東男子暴打女同事,猛砸腦袋,滿(mǎn)臉血險(xiǎn)要人命,網(wǎng)友卻偏袒維護(hù)

溫讀史
2025-08-29 14:28:41
李在明180度猛調(diào)頭,把日本排在中國(guó)前面,打出了“親日”的旗號(hào)

李在明180度猛調(diào)頭,把日本排在中國(guó)前面,打出了“親日”的旗號(hào)

起喜電影
2025-08-30 18:06:40
中國(guó)20個(gè)鄰國(guó),有7國(guó)拒絕參加北京閱兵,理由都不同,日本最過(guò)分

中國(guó)20個(gè)鄰國(guó),有7國(guó)拒絕參加北京閱兵,理由都不同,日本最過(guò)分

阿芒娛樂(lè)說(shuō)
2025-08-29 14:45:36
對(duì)決法國(guó)!中國(guó)女排備戰(zhàn)淘汰賽曝光:趙勇指點(diǎn)莊宇珊,李盈瑩微笑

對(duì)決法國(guó)!中國(guó)女排備戰(zhàn)淘汰賽曝光:趙勇指點(diǎn)莊宇珊,李盈瑩微笑

李喜林籃球絕殺
2025-08-30 17:42:30
iPhone17ProMax,突然提前上架

iPhone17ProMax,突然提前上架

搞機(jī)小帝
2025-08-30 13:57:02
海港大勢(shì)已去?關(guān)鍵時(shí)刻連續(xù)丟分,遭成都雙殺,穆斯卡特神奇不再

海港大勢(shì)已去?關(guān)鍵時(shí)刻連續(xù)丟分,遭成都雙殺,穆斯卡特神奇不再

國(guó)足風(fēng)云
2025-08-30 21:40:55
安徽“第一縣”:GDP超過(guò)1200億元,百萬(wàn)豪車(chē)尊界S800在這里下線(xiàn)

安徽“第一縣”:GDP超過(guò)1200億元,百萬(wàn)豪車(chē)尊界S800在這里下線(xiàn)

火星人雜談
2025-08-30 12:00:02
霍震霆沒(méi)想到,自己千辛萬(wàn)苦給霍啟剛找的媳婦,竟狠狠“拿捏”他

霍震霆沒(méi)想到,自己千辛萬(wàn)苦給霍啟剛找的媳婦,竟狠狠“拿捏”他

大眼妹妹
2025-08-29 18:09:02
廣東男籃三消息:崔永熙報(bào)到時(shí)間確定,王少杰沒(méi)走,徐昕還回來(lái)!

廣東男籃三消息:崔永熙報(bào)到時(shí)間確定,王少杰沒(méi)走,徐昕還回來(lái)!

硯底沉香
2025-08-30 19:40:07
被騙上賊船?滕哈赫才踢2場(chǎng)就迎生死戰(zhàn):今晚輸球或下課 1夏賣(mài)8人

被騙上賊船?滕哈赫才踢2場(chǎng)就迎生死戰(zhàn):今晚輸球或下課 1夏賣(mài)8人

風(fēng)過(guò)鄉(xiāng)
2025-08-30 09:20:55
郭士強(qiáng)100%用周琦,就是李楠再執(zhí)教也100%用周琦

郭士強(qiáng)100%用周琦,就是李楠再執(zhí)教也100%用周琦

大眼瞄世界
2025-08-30 15:15:12
擬退學(xué)!211大學(xué)發(fā)公告!

擬退學(xué)!211大學(xué)發(fā)公告!

雙一流高校
2025-08-30 00:13:18
俄烏在頓涅茨克重鎮(zhèn)激烈交戰(zhàn)

俄烏在頓涅茨克重鎮(zhèn)激烈交戰(zhàn)

中國(guó)基金報(bào)
2025-08-30 21:39:59
俄羅斯宣布9月暫停汽油出口,國(guó)內(nèi)汽油價(jià)格暴漲近50%,什么情況?

俄羅斯宣布9月暫停汽油出口,國(guó)內(nèi)汽油價(jià)格暴漲近50%,什么情況?

碳基生物關(guān)懷組織
2025-08-28 17:57:32
宋楚瑜:如果臺(tái)灣不是大陸領(lǐng)土,那滿(mǎn)清憑什么將臺(tái)灣送給日本人?

宋楚瑜:如果臺(tái)灣不是大陸領(lǐng)土,那滿(mǎn)清憑什么將臺(tái)灣送給日本人?

大道無(wú)形我有型
2025-08-29 20:43:05
人老了,關(guān)鍵不在運(yùn)動(dòng)和喝水,而在于這3條長(zhǎng)壽法則!

人老了,關(guān)鍵不在運(yùn)動(dòng)和喝水,而在于這3條長(zhǎng)壽法則!

AGINightingale
2025-08-28 07:00:12
2025-08-30 22:12:50
鈦媒體APP incentive-icons
鈦媒體APP
獨(dú)立財(cái)經(jīng)科技媒體
123101文章數(shù) 861005關(guān)注度
往期回顧 全部

科技要聞

李斌內(nèi)部講話(huà):蔚來(lái)四季度必須盈利

頭條要聞

以色列資深外交官:馬克龍?jiān)缇蜎Q定承認(rèn)巴勒斯坦國(guó)了

頭條要聞

以色列資深外交官:馬克龍?jiān)缇蜎Q定承認(rèn)巴勒斯坦國(guó)了

體育要聞

淘汰曼聯(lián)的英乙隊(duì),仍然沒(méi)有忘記張恩華

娛樂(lè)要聞

吳京風(fēng)波拉出多位明星

財(cái)經(jīng)要聞

美上訴法院裁定特朗普關(guān)稅非法!

汽車(chē)要聞

輔助駕駛新賽道 理想VLA司機(jī)大模型即將全量推送

態(tài)度原創(chuàng)

家居
時(shí)尚
教育
健康
公開(kāi)課

家居要聞

提升功能 靈活居住環(huán)境

伊姐周六熱推:電視劇《十二封信》;電影《死神來(lái)了:血脈詛咒》......

教育要聞

新一輪開(kāi)學(xué)季來(lái)了,民辦本科院校招生大規(guī)模遇冷

精神科專(zhuān)家解答學(xué)習(xí)困難七大問(wèn)題

公開(kāi)課

李玫瑾:為什么性格比能力更重要?

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版