成人深夜视频网站|日韩高清无码久久|中文a√在线天堂|亚洲黄网站在线看|欧美视频 第二页|日本 久草 天堂|高潮无遮挡黄视频|久久一级内射精品|国产操逼一级视频|五月天婷婷色AV

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

類比的長(zhǎng)河,為何流到大模型就被截流?

0
分享至

文 | 追問nextquestion

當(dāng)下想要找到些“普通人類擅長(zhǎng),而大模型不擅長(zhǎng)”的任務(wù),似乎越來越難了?!邦惐取笨赡芫褪沁@樣的任務(wù),這不只是人工智能的“阿克琉斯之踵”,更顯露出不同大模型間以及大模型與人類之間的本質(zhì)差異。

在《表象與本質(zhì)》一書中,認(rèn)知科學(xué)家侯世達(dá)(Douglas Hofstadter)指出:

類比不僅僅是語言或邏輯的工具,更是思維的基本單位。

我們?nèi)粘UZ言中充滿了類比和隱喻,就如同“充滿”一詞本身。類比能夠激活創(chuàng)造力。例如,愛因斯坦將引力場(chǎng)類比為一個(gè)重物被放入蹦床后造成的表面彎曲,這啟發(fā)他提出了廣義相對(duì)論。類比還能解釋難以理解的現(xiàn)象。就像為人所熟知的類比“意識(shí)就像冰山”,通過將意識(shí)與冰山聯(lián)系起來,人們可以直觀地推斷出意識(shí)在水面下的深度和復(fù)雜性。

那么,大語言模型是否也具有類比能力?

在機(jī)器學(xué)習(xí)中,類比體現(xiàn)為“0嘗試推理”,即不給大模型可供學(xué)習(xí)的示例,而是讓大模型自行根據(jù)題目進(jìn)行推理。為了驗(yàn)證大模型能否進(jìn)行類比推理,Webb等人(2023)設(shè)計(jì)并使用了三種類比推理任務(wù)——字符串類比、數(shù)字矩陣和故事類比,以此測(cè)試GPT3面對(duì)不同類型任務(wù)的推理能力。通過這套測(cè)試,研究人員認(rèn)為他們證明了GPT-3具有類比推理能力[1]。

但是,更進(jìn)一步的問題是,這些大模型會(huì)不會(huì)只是在回憶訓(xùn)練數(shù)據(jù),而并非真正的類比呢?當(dāng)面對(duì)更變化多樣的問題時(shí),大模型能否具有穩(wěn)定的類比能力?

01 大模型能讀懂題目“馬甲”下的本質(zhì)嗎?

為了檢測(cè)模型是否依賴表面特征或捷徑,而非真正的抽象推理,圣塔菲研究院的Lewis & Mitchell,基于Webb等人設(shè)計(jì)的基本轉(zhuǎn)換和泛化類型,設(shè)計(jì)了更進(jìn)一步的變體測(cè)試[2]。

他們給題目套一些“馬甲”,在不改變本質(zhì)的同時(shí),讓題目看起來不同;然后用新的測(cè)試對(duì)GPT-3(text-davinci-003)以及近期更新的大模型GPT-3.5(gpt-3.5-turbo-0613)、GPT-4(gpt-4-0613)進(jìn)行類比能力測(cè)試,包括字符串、數(shù)字矩陣和故事類比實(shí)驗(yàn)。這類研究中,最常用到的是侯世達(dá)于1985年提出的“字符串類比”*。

* 字符串類比:a b c d → a b c e; i j k l → ?

其中,第一部分是"源轉(zhuǎn)換",第二部分是"目標(biāo)",任務(wù)是以類似于源轉(zhuǎn)換的方式轉(zhuǎn)換目標(biāo)字符串。

2023年,Webb等人提出了六種轉(zhuǎn)換類型(如序列擴(kuò)展、后繼、前驅(qū)等)和多種泛化類型(如字母到數(shù)字、分組、更長(zhǎng)目標(biāo)等)的組合。他們?yōu)槊糠N問題類型生成了大量問題,并將這些問題給到GPT-3(text-davinci-003)以及57名UCLA本科生進(jìn)行測(cè)試。結(jié)果發(fā)現(xiàn),人類參與者的準(zhǔn)確率表現(xiàn)出很大的差異,但總體而言,GPT-3在大多數(shù)問題類型上的表現(xiàn)甚至優(yōu)于平均人類表現(xiàn)[1]。

但是,這項(xiàng)研究中所使用的字母表均為標(biāo)準(zhǔn)英文字母表及其固有順序,測(cè)試中大模型表現(xiàn)出來的“類比能力”是否可能依賴表面特征走了“捷徑”?為此,Lewis & Mitchell保留了基本轉(zhuǎn)換和泛化類型,又進(jìn)一步創(chuàng)建了兩類變體[2]:

- 虛構(gòu)字母表:隨機(jī)打亂2-20個(gè)字母的順序,創(chuàng)建28種不同的打亂字母表

- 符號(hào)字母表:用非字母符號(hào)完全替代字母,創(chuàng)建9種不同的符號(hào)字母表

研究人員對(duì)真實(shí)的拉丁字母表,隨機(jī)選取1-3對(duì)進(jìn)行替換,然后分別給人類和GPT-3、GPT-3.5、GPT-4進(jìn)行了測(cè)試。


?圖1. Lewis & Mitchell給受試人類和大模型的類比問題示例. 圖源:[2]

結(jié)果顯示,當(dāng)字母表的替換次數(shù)增加后,不論是GPT3、GPT3.5或到GPT4,其回答準(zhǔn)確性都有下降,且都顯著低于在線招募的人類受試者[2]。


?圖2:不同字母表替換次數(shù)下,GPT模型和人類被試者的準(zhǔn)確性對(duì)比. 圖源:[2]

Mitchell團(tuán)隊(duì)還做過一項(xiàng)嘗試,他們讓42名兒童(7-9歲)、62名成人以及4種大模型(Anthropic的Claude-3.5、Google的Gemma-2 27B、Open AI的GPT-4o和Meta的Llama-3.1 405B),接受拉丁字母表、希臘字母表和符號(hào)列表三種條件的字符串類比任務(wù)[3]。


?圖3:不同類型的字母推理問題. 圖源:[3]

結(jié)果顯示,大模型面對(duì)類比問題時(shí),準(zhǔn)確性就會(huì)顯著下降,表現(xiàn)甚至不如兒童。就拿GPT-4o和Claude-3.5來說,在拉丁語字母表上,其平均準(zhǔn)確性要高于兒童并接近成人;但當(dāng)題目換成希臘字母,準(zhǔn)確性就會(huì)顯著下降;而到了符號(hào)時(shí),其準(zhǔn)確性甚至不如孩童。而其他開源模型如Llama-3.1 405B和Gemma-2 27B,其準(zhǔn)確性下降更為明顯[3]。



?圖4:不同大模型和人類在三類字符串類比中的表現(xiàn)對(duì)比. 圖源:[3]

上述結(jié)果說明,當(dāng)實(shí)驗(yàn)引入“異構(gòu)”字母表時(shí),人類甚至兒童仍然能夠解決問題,而大模型則會(huì)出錯(cuò)。一個(gè)能夠真正理解和類比的系統(tǒng),應(yīng)該在變化的情況下也能保持高性能——這正是GPT系列大模型不具備的能力。

讀者也許會(huì)好奇,其他推理大模型能否回答這樣的問題。筆者簡(jiǎn)單嘗試了一下,在DeepSeek官方的全尺寸R1及V3模型,以及阿里通義千問的QwQ 32B推理模型中,對(duì)于多次替換后的虛構(gòu)字母表,模型能夠正確回答,并給出符合人類思考過程的推理過程的。

但當(dāng)DeepSeek模型變?yōu)檎麴sQwen或lamma的32B、14B、8B或1.5B尺寸時(shí),筆者有限的幾次觀察發(fā)現(xiàn),模型都呈現(xiàn)出過度思考的特征,即會(huì)在思考過程中嘗試眾多過于復(fù)雜的模式,展示數(shù)萬token的繁雜思考過程,最終仍然給出了錯(cuò)誤的回答。筆者還遇到在思考過程中,已經(jīng)發(fā)現(xiàn)正確答案,但又在接下來的思考過程中,大模型將其否決的案例。

筆者認(rèn)為,基于強(qiáng)化學(xué)習(xí)的大模型能否進(jìn)行類比,還需要進(jìn)一步的定量研究,以考察不同尺寸模型的準(zhǔn)確度。例如,對(duì)于模型將問題過度復(fù)雜化的傾向,可以根據(jù)思考過程,對(duì)模型的錯(cuò)誤進(jìn)行進(jìn)一步的分類,以此或可創(chuàng)建出一個(gè)評(píng)估一般思維能力的考核指標(biāo)。

此外,還可以組合字符串類比的6個(gè)變種,設(shè)計(jì)更多的題目,例如在字母表中包含數(shù)字、英文字母、漢字及符號(hào),這樣的改變或許對(duì)人類不會(huì)影響準(zhǔn)確性,但可能會(huì)導(dǎo)致大模型的準(zhǔn)確度下降。同時(shí),還需要考察推理模型對(duì)于這類問題的思考時(shí)所用的token數(shù)量,從而減少計(jì)算成本。

02 大模型能理解推理規(guī)則嗎?

除了字母表推理,還可以使用數(shù)字矩陣類問題(分析數(shù)字模式以確定缺失的數(shù)字)。數(shù)字矩陣測(cè)試的設(shè)計(jì)思路源于經(jīng)典的瑞文漸進(jìn)矩陣測(cè)試(Raven's Progressive Matrices),這是一種廣泛用于測(cè)量抽象推理能力的非語言智力測(cè)試。相比之前字母表類比中改變問題的表現(xiàn)形式,數(shù)字矩陣問題通過組合規(guī)則,考察了大模型所謂的推理能力是真正的抽象理解還是模式匹配。

這類問題中,涉及的基礎(chǔ)規(guī)則有4種,題目由這些基礎(chǔ)規(guī)則組合而成:


研究者對(duì)原始數(shù)字矩陣測(cè)試進(jìn)行了兩個(gè)關(guān)鍵變化:空白位置變化(將空白位置變?yōu)榫仃嚨钠渌恢?如[1,3]或[2,2])和規(guī)則復(fù)雜度變化(設(shè)計(jì)了不同復(fù)雜度級(jí)別的矩陣問題,從簡(jiǎn)單到復(fù)雜)[2]。


?圖5:涉及到多個(gè)規(guī)則的數(shù)字矩陣推理問題以及將數(shù)字換為符號(hào)的數(shù)字矩陣推理問題. 圖源:[2]

結(jié)果顯示,僅改變空白位置這一表面特征,就導(dǎo)致GPT模型表現(xiàn)大幅下滑。盡管GPT-4在標(biāo)準(zhǔn)測(cè)試中接近人類表現(xiàn)(83% vs 87%);但在變體測(cè)試中,GPT-4的表現(xiàn)下降幅度(26%)遠(yuǎn)大于人類(4%)[2]。這意味著,即使是最先進(jìn)的模型也表現(xiàn)出對(duì)格式變化的高度敏感性,同樣表明了大模型的推理能力不那么魯棒。


?圖6:數(shù)字矩陣推理問題的準(zhǔn)確度. 圖源:[2]

在數(shù)字矩陣問題中,當(dāng)缺失數(shù)字的位置改變時(shí),GPT 模型的表現(xiàn)顯著下降。這表明了大模型不僅不理解題目考察的是什么,更沒有理解進(jìn)行類比所依賴的規(guī)則。其在單一規(guī)則或原始字母表上的優(yōu)異表現(xiàn),依賴于題目與示例之間在的表面相似性,而非更深層次的因果推理。

與之類似的,還包括下面的矩陣變換問題。一項(xiàng)研究通過簡(jiǎn)化版ARC(抽象與推理語料庫)任務(wù)對(duì)比了不同年齡人類(兒童與成人)和大型語言模型的視覺類比推理表現(xiàn),結(jié)果同樣發(fā)現(xiàn)人類在復(fù)雜任務(wù)中顯著優(yōu)于大模型,而大模型常依賴復(fù)制或矩陣組合策略,缺乏抽象概念理解能力[4]。



?圖6: 給人類和大模型的視覺類比推理問題示例,以及不同推理規(guī)則對(duì)應(yīng)題目的大模型與人類的準(zhǔn)確度對(duì)比. 圖源:[4]

03 在基于常識(shí)的文科推理上, 大模型表現(xiàn)如何?

上述兩類類比問題都可以算是“理科題目”,對(duì)于“文科生”的大模型,或許確實(shí)有些難了。相比之下,故事類比則主要考察大模型基于常識(shí)的類比能力。

這類題目通常給出1個(gè)幾句話組成的短故事,然后要求參與者判斷故事1和故事A或B哪一個(gè)更為相似,即識(shí)別短故事之間的相似性,并從多個(gè)選項(xiàng)中選擇最符合類比關(guān)系的答案。


?圖7:相似故事的類比判斷,題目的故事是一個(gè)吃不到葡萄說葡萄酸的騾子版本,故事A將主角換成了一個(gè)女孩,而在故事B中,主角沒有獲得相似的東西,是由于不喜歡而非拿不到. 圖源:[2]

在Lewis & Mitchell的研究中,他們嘗試了兩種變體:一是隨機(jī)打亂答案選項(xiàng)的順序,二是保持核心關(guān)系不變,但重寫故事的表述方式[2]。

在故事類比中,GPT-4 傾向于更頻繁地選擇第一個(gè)給出的答案作為正確答案,而人類則不受答案順序的影響。此外,對(duì)于大模型,將故事用不同的話重述,也會(huì)降低在故事類比問題上的準(zhǔn)確性[2]。


?圖8:文字類比問題上大模型的表現(xiàn)差異. 圖源:[2]

故事類比更接近自然語言處理的實(shí)際應(yīng)用場(chǎng)景,但研究結(jié)果卻表明即使在語言模型的"主場(chǎng)"上,它們的類比推理能力仍然缺乏真正的靈活性和魯棒性,過度依賴于表面特征與特定的答案格式,而非深層理解抽象關(guān)系。

為此,筆者也設(shè)想了一種判別方式,例如對(duì)比大模型和人類回答這類問題的準(zhǔn)確性??梢陨珊芏嘟M類比問題,并招募讀過相關(guān)小說的普通人,以獲取大眾認(rèn)知中的一般性回答,然后對(duì)比不同大模型和人類回答的差異性。

通過設(shè)置不同的細(xì)分問題,可以考察大模型與人類在類比能力方面的相似度及價(jià)值觀對(duì)齊情況。

- 跨文體類比能力:在風(fēng)格差異較大的作品間,如中文的金庸武俠或《紅樓夢(mèng)》與英文的《哈利波特》,大模型的類比準(zhǔn)確性能否達(dá)到人類水平?

- 角色理解差異:大模型在處理男性和女性角色類比時(shí),是否存在準(zhǔn)確性差異?

- 群體偏好特征:大模型的類比偏好是否更接近特定人群(如不同性別、年齡段的人群)?

- 邏輯遞推性:大模型的類比是否具有傳遞性特征(即當(dāng)A>B且B>C時(shí),是否必然推導(dǎo)出A>C)?


?圖9:大模型能夠在跨越文學(xué)作品進(jìn)行類比嗎?本文作者與DeepSeek對(duì)話截圖,其中前一道基本不會(huì)存在爭(zhēng)議的人物類比,以及后一道可能存在回答差異的人物類比題目。

除了上述假想的對(duì)復(fù)雜人物性格的類比,還有研究測(cè)試了大模型在無預(yù)設(shè)條件下將抽象概念(如pull、flee)與空間符號(hào)(上下左右)進(jìn)行類比推理的能力,結(jié)果顯示,大模型和人類的相似性不算高[5]。不過考慮到這項(xiàng)研究強(qiáng)行要求將抽象概念(給定單詞)和方位對(duì)應(yīng)缺少現(xiàn)實(shí)意義,這里就不詳細(xì)論述。


?圖10:大模型對(duì)抽象概念和人類類比的準(zhǔn)確性評(píng)估.圖源:[5]

04 提升大模型類比能力,還任重道遠(yuǎn)

基于以上研究發(fā)現(xiàn),我們大致可以得到一個(gè)結(jié)論:聲稱大語言模型已具備一般推理能力或許為時(shí)過早。

盡管早期研究中大模型在特定任務(wù)上表現(xiàn)良好,但當(dāng)測(cè)試難度提升時(shí),它們的表現(xiàn)就不穩(wěn)定了。一個(gè)模型在一組特定任務(wù)上表現(xiàn)良好,并不意味著它具有魯棒性。之前有研究表明,在面對(duì)數(shù)學(xué)應(yīng)用題時(shí),只是更換題目中的人名,大模型的解答準(zhǔn)確度都會(huì)明顯下降,而增加無關(guān)的背景論述時(shí),模型的性能下降則更加明顯[6]。

這一發(fā)現(xiàn)對(duì)于在教育、法律和醫(yī)療等關(guān)鍵決策領(lǐng)域應(yīng)用人工智能敲響了警鐘,人工智能可以是一個(gè)強(qiáng)大的工具,但它還不能取代人類的思考和推理。例如,在教育領(lǐng)域,大模型生成的比喻確實(shí)能為教學(xué)提供幫助;然而,如果缺乏專業(yè)人士的審核與修正,這些類比可能存在潛在風(fēng)險(xiǎn)。

因此,研究人員需要開發(fā)和實(shí)施穩(wěn)健性測(cè)試,以適應(yīng)問題或情況中細(xì)微變化的能力。新的穩(wěn)健性測(cè)試應(yīng)包括一組公認(rèn)的標(biāo)準(zhǔn)化任務(wù),用以評(píng)估 AI 系統(tǒng)以及人類如何適應(yīng)新情況。在實(shí)踐中,大模型常會(huì)遇到之前分析數(shù)據(jù)中未曾遇到的新情況和挑戰(zhàn),而穩(wěn)健性測(cè)試將為用戶提供衡量大型語言模型可信度的方式。

與此同時(shí),24年的機(jī)器學(xué)習(xí)頂會(huì)ICLR的一項(xiàng)研究展示了另一個(gè)發(fā)展方向:通過類比推理框架,讓大模型自動(dòng)生成新的規(guī)則來應(yīng)對(duì)未知場(chǎng)景[7]。這種基于提示詞工程的方法在多個(gè)測(cè)試基準(zhǔn)上都取得了顯著性能提升,表明提升大模型的類比能力不僅是評(píng)估其穩(wěn)健性的重要維度,更是增強(qiáng)模型泛化能力的關(guān)鍵路徑。這兩種方法相輔相成,共同推動(dòng)著大模型向更可靠、更智能的方向發(fā)展。

展望未來,大模型類比思維的研究,或可從中國傳統(tǒng)中汲取靈感。中國古典文學(xué)中的對(duì)聯(lián)與律詩,本質(zhì)上就是一種精妙的類比系統(tǒng),其中蘊(yùn)含著嚴(yán)謹(jǐn)?shù)膶?duì)應(yīng)規(guī)則和豐富的語義關(guān)聯(lián)。通過這些結(jié)構(gòu)化的語言數(shù)據(jù)集對(duì)大模型進(jìn)行微調(diào),可能為增強(qiáng)其類比推理能力開辟新途徑。

就像中文指令微調(diào)數(shù)據(jù)集 COIG-CQIA,為了提升模型在編程及數(shù)學(xué)問題上的表現(xiàn),也曾使用了中文互聯(lián)網(wǎng)社區(qū)數(shù)據(jù)“弱智吧”的標(biāo)題作為訓(xùn)練指令。這些來自不同領(lǐng)域的實(shí)踐表明,結(jié)構(gòu)化的類比思維模式,無論是傳統(tǒng)文學(xué)還是現(xiàn)代網(wǎng)絡(luò)社群數(shù)據(jù)集,都可能成為提升人工智能認(rèn)知能力的重要工具。

畢竟,類比思維的本質(zhì)是通用的。

參考文獻(xiàn)

[1] Taylor Webb, Keith J. Holyoak, and Hongjing Lu. Emergent analogical reasoning in large language models. Nature Human Behaviour, 7(9):1526–1541, 2023.

[2] Lewis, Martha & Mitchell, Melanie. (2024). Evaluating the Robustness of Analogical Reasoning in Large Language Models. 10.48550/arXiv.2411.14215.

[3] Stevenson CE, Pafford A, van der Maas HLJ, Mitchell M. (2024). Can large language models generalize analogy solving like children can? arXiv.2411.02348v1.

[4] Opie?ka GJ, Rosenbusch H, Vijverberg VP, Stevenson CE. Do large language models solve ARC visual analogies like people do? [Internet]. arXiv.org. 2024 May 13 [cited 2025 Apr 2]. Available from: https://arxiv.org/pdf/2403.09734v2

[5] Wicke, P., Hirlimann, L., & Cunha, J. M. (2024). Using Analogical Reasoning to Prompt LLMs for their Intuitions of Abstract Spatial Schemas. Retrieved from https://analogy-angle.github.io/assets/Wicke.pdf

[6] Mirzadeh S I, Alizadeh K, Shahrokhi H, Tuzel O, Bengio S, Farajtabar M. GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models. *arXiv preprint arXiv:2410.05229*. 2024.

[7] Yasunaga M, Chen X, Li Y, Pasupat P, Leskovec J, Liang P, Chi EH, Zhou D. Large language models as analogical reasoners. In *International Conference on Learning Representations (ICLR)* 2024.

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
這地兒我熟!加納喬官宣照坐廣告牌,曼聯(lián)時(shí)期曾在藍(lán)橋做同款慶祝

這地兒我熟!加納喬官宣照坐廣告牌,曼聯(lián)時(shí)期曾在藍(lán)橋做同款慶祝

直播吧
2025-08-31 09:18:32
所有人都在討論社保,但當(dāng)下有1.2億群體養(yǎng)老問題卻被所有人遺忘

所有人都在討論社保,但當(dāng)下有1.2億群體養(yǎng)老問題卻被所有人遺忘

流蘇晚晴
2025-08-30 18:12:38
世錦賽決賽國羽沖5金,預(yù)測(cè)3金

世錦賽決賽國羽沖5金,預(yù)測(cè)3金

佑銘羽球
2025-08-31 14:03:00
黃渤陪女兒美國逛街!知情人曝他倆女兒都是美籍,在波士頓念書

黃渤陪女兒美國逛街!知情人曝他倆女兒都是美籍,在波士頓念書

花心電影
2025-08-30 11:20:28
都到了北京邊上了,卻不參加93閱兵,莫迪和埃爾多安在擔(dān)心什么?

都到了北京邊上了,卻不參加93閱兵,莫迪和埃爾多安在擔(dān)心什么?

頭條爆料007
2025-08-30 13:00:12
我國將迎來人口死亡高峰,22年去世1041萬人,23年1110萬,去年呢

我國將迎來人口死亡高峰,22年去世1041萬人,23年1110萬,去年呢

云景侃記
2025-08-30 19:27:53
生二胎獎(jiǎng)28.71萬,生三胎獎(jiǎng)35.59萬,生娃發(fā)錢,最猛一槍打響!

生二胎獎(jiǎng)28.71萬,生三胎獎(jiǎng)35.59萬,生娃發(fā)錢,最猛一槍打響!

大愛三湘
2025-08-27 22:37:05
16個(gè)外甥為了回饋舅舅,湊錢給舅舅給買車!網(wǎng)友:這也太暖了吧!

16個(gè)外甥為了回饋舅舅,湊錢給舅舅給買車!網(wǎng)友:這也太暖了吧!

說歷史的老牢
2025-08-30 10:08:18
?林峯老婆被闊太打到流產(chǎn)的瓜

?林峯老婆被闊太打到流產(chǎn)的瓜

熱鬧吃瓜大姐
2025-08-29 19:45:23
不許把船拖走?趕在閱兵前,中方這次要和菲律賓把“賬”算個(gè)清楚

不許把船拖走?趕在閱兵前,中方這次要和菲律賓把“賬”算個(gè)清楚

前沿迅息
2025-08-29 20:10:03
1932年,一男子摟著兩名原住民美女拍照。兩位美女笑得非常自然

1932年,一男子摟著兩名原住民美女拍照。兩位美女笑得非常自然

百態(tài)人間
2025-08-27 11:24:18
因一句評(píng)論就分手?網(wǎng)友猜測(cè)劉美含、張遠(yuǎn)分手原因,劉美含點(diǎn)贊網(wǎng)友評(píng)論

因一句評(píng)論就分手?網(wǎng)友猜測(cè)劉美含、張遠(yuǎn)分手原因,劉美含點(diǎn)贊網(wǎng)友評(píng)論

極目新聞
2025-08-30 16:17:07
丑聞夫妻!尹錫悅與金建希的雙雙墜落

丑聞夫妻!尹錫悅與金建希的雙雙墜落

陸棄
2025-08-30 15:22:45
快船又瘋了!鎖定籃網(wǎng)內(nèi)線克拉克斯頓,他只為哈登而來

快船又瘋了!鎖定籃網(wǎng)內(nèi)線克拉克斯頓,他只為哈登而來

逗逗睡不醒
2025-08-31 15:28:44
九三閱兵將至,德日向中方施壓,不許中方做3件事,中方8字回應(yīng)

九三閱兵將至,德日向中方施壓,不許中方做3件事,中方8字回應(yīng)

老稝科普君
2025-08-29 08:50:30
一場(chǎng)1-4潰敗,衛(wèi)冕冠軍欲哭無淚,揪出2大水貨,最慘烈爭(zhēng)冠誕生

一場(chǎng)1-4潰敗,衛(wèi)冕冠軍欲哭無淚,揪出2大水貨,最慘烈爭(zhēng)冠誕生

大秦壁虎白話體育
2025-08-30 22:24:01
男子花6元買彩票中獎(jiǎng)1800萬,店主:稅后1440萬,不到1小時(shí)到賬。平常他中百八十都開心,中大獎(jiǎng)反而挺平靜

男子花6元買彩票中獎(jiǎng)1800萬,店主:稅后1440萬,不到1小時(shí)到賬。平常他中百八十都開心,中大獎(jiǎng)反而挺平靜

觀威海
2025-08-31 08:28:41
九三閱兵進(jìn)入倒計(jì)時(shí),解碼我軍新銳裝備

九三閱兵進(jìn)入倒計(jì)時(shí),解碼我軍新銳裝備

齊魯壹點(diǎn)
2025-08-30 20:42:03
世錦賽戰(zhàn)報(bào):2-0,石宇奇決賽對(duì)手確定了!附31日5場(chǎng)賽程CCTV直播

世錦賽戰(zhàn)報(bào):2-0,石宇奇決賽對(duì)手確定了!附31日5場(chǎng)賽程CCTV直播

求球不落諦
2025-08-31 03:23:56
山東師生性丑聞:男女合照流出,17歲女生積極主動(dòng),學(xué)校連夜回應(yīng)

山東師生性丑聞:男女合照流出,17歲女生積極主動(dòng),學(xué)校連夜回應(yīng)

博士觀察
2025-08-30 22:27:26
2025-08-31 17:23:00
鈦媒體APP incentive-icons
鈦媒體APP
獨(dú)立財(cái)經(jīng)科技媒體
123111文章數(shù) 861004關(guān)注度
往期回顧 全部

科技要聞

入手iPhone 16還是等17??jī)煽钍謾C(jī)全面對(duì)比

頭條要聞

考生考出691分超高分 拒絕多校邀請(qǐng)選南大"冷門絕學(xué)"

頭條要聞

考生考出691分超高分 拒絕多校邀請(qǐng)選南大"冷門絕學(xué)"

體育要聞

破2億身家!莎拉波娃的"勝負(fù)腦"

娛樂要聞

胡歌是永遠(yuǎn)都不會(huì)離婚的,原因很簡(jiǎn)單

財(cái)經(jīng)要聞

罕見熱鬧的8月之后,A股將迎怎樣的9月

汽車要聞

家庭泛越野 大狗PLUS預(yù)售煥新11.28萬起

態(tài)度原創(chuàng)

房產(chǎn)
游戲
本地
旅游
公開課

房產(chǎn)要聞

顛覆認(rèn)知!??谡嬲暮勒髌罚K于出現(xiàn)了!

學(xué)Switch?PS6掌機(jī)被曝主機(jī)與便攜雙模式自由切換

本地新聞

換個(gè)城市過夏天 | 夏末狂歡,浪在阜新黃家溝!

旅游要聞

熱聞|清明假期將至,熱門目的地有哪些?

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進(jìn)入關(guān)懷版