1.1、公司概況:全面推進(jìn)AI+云計(jì)算轉(zhuǎn)型
谷歌為全球搜索與移動(dòng)生態(tài)公司巨頭,以在線廣告收入為核心,并逐步推進(jìn)“AI+云計(jì)算”建設(shè)。谷歌由 拉里·佩奇和謝爾蓋·布林于 1996 年聯(lián)合創(chuàng)立,2004 年于納斯達(dá)克上市,2015 年,谷歌成立母公司 Alphabet, Google 成為母公司旗下最大子公司,Calico、Nest、Fiber 等成為 Google 同級(jí)子公司。谷歌(Alphabet)的業(yè)務(wù) 板塊包括 Google 和 Other Bets 兩部分,其中 Google 為公司的核心收入來(lái)源。Google 以廣告業(yè)務(wù)為核心,輔以 云業(yè)務(wù)、應(yīng)用商店、硬件產(chǎn)品等互聯(lián)網(wǎng)產(chǎn)品與服務(wù),具體包括 Android、Search、YouTube、Apps、Maps 和 Ads。 此外,子公司 Other Bets 業(yè)務(wù)涉及生物科技(Calico)、智能家居(Nest)、資本投資(GV)、寬帶服務(wù)(Fiber)和自 動(dòng)駕駛(Waymo)等領(lǐng)域。
發(fā)展歷程方面,谷歌成立 20 余年間,由單一的搜索引擎服務(wù)公司轉(zhuǎn)型為全球搜索與移動(dòng)生態(tài)公司巨頭,其 發(fā)展歷程大致分為四個(gè)階段。第一階段為 1996 年-2004 年,谷歌依靠搜索引擎廣告收入營(yíng)收。谷歌搜索最初版 本為 BackRub 搜索引擎,利用讀取網(wǎng)絡(luò)標(biāo)題并利用 PageRank 算法對(duì)搜索結(jié)果排序。2000 年,谷歌基于 BackRub, 發(fā)布 AdWords,利用廣告商針對(duì)搜索結(jié)果界面定向廣告投放機(jī)會(huì)的價(jià)格競(jìng)拍營(yíng)收,為公司提供穩(wěn)定的收入來(lái)源。 第二階段為 2004 年-2008 年,搜索引擎業(yè)務(wù)收入來(lái)源單一且局限,谷歌開始快速收購(gòu)初創(chuàng)公司,構(gòu)建公司主營(yíng) 業(yè)務(wù)框架。
(資料圖片僅供參考)
為尋找搜索引擎業(yè)務(wù)外新的收入增長(zhǎng)點(diǎn),谷歌于 2004 年上市后大量收購(gòu)初創(chuàng)公司,其中包括 2005 年收購(gòu) Android 拓展移動(dòng)生態(tài)業(yè)務(wù),2006 年收購(gòu) YouTube 拓展視頻廣告業(yè)務(wù),2007 年收購(gòu)網(wǎng)絡(luò)廣告服務(wù)商 DoubleClick 和發(fā)布廣告產(chǎn)品 AdSense,拓展在線廣告業(yè)務(wù)。在此階段,谷歌構(gòu)建了其主要業(yè)務(wù)板塊搜索和視頻 廣告、硬件、應(yīng)用商店的基礎(chǔ)。第三階段為 2008 年-2015 年,谷歌一方面在搜索引擎、移動(dòng)生態(tài)領(lǐng)域快速發(fā)展,另一方面,主攻技術(shù)的聯(lián)合創(chuàng)始人拉里·佩奇于 2011 年重新?lián)?CEO,谷歌開始探索各類創(chuàng)新產(chǎn)品。
具體而 言 1)谷歌潛心深入發(fā)展移動(dòng)生態(tài)和搜索引擎業(yè)務(wù),于 2008 年推出 Chrome 瀏覽器并開源操作系統(tǒng) 2)谷歌在 CEO 拉里·佩奇帶領(lǐng)下開始嘗試各種新奇的想法,比如開發(fā)自動(dòng)駕駛技術(shù)、谷歌眼鏡,成立生物科技公司 Calico 等嘗試。第四階段為 2015 年至今,通過(guò)四年探索,谷歌的在線廣告業(yè)務(wù)和其他業(yè)務(wù)逐步成熟,開始探索 AI 和 云業(yè)務(wù)的布局。2014 年谷歌收購(gòu) Deepmind,2016 年整合谷歌云,谷歌云在公司收入中占比逐年增加,未來(lái)公 司將以“AI+云計(jì)算”作為公司新的業(yè)務(wù)增長(zhǎng)點(diǎn)。
管理團(tuán)隊(duì)方面,公司共經(jīng)歷了拉里·佩奇、埃里克·施密特、拉里·佩奇和桑達(dá)爾·皮猜四任 CEO。拉里·佩 奇自 1998 年-2001 年擔(dān)任公司 CEO,因投資人質(zhì)疑其年齡和經(jīng)驗(yàn)限制要求其卸任。2001-2011 年,前 Sun 和 Novell 的首席執(zhí)行官埃里克·施密特?fù)?dān)任公司 CEO,因其具有豐富的管理經(jīng)驗(yàn),埃里克·施密特負(fù)責(zé)公司運(yùn)營(yíng),兩位 聯(lián)合創(chuàng)始人專注于技術(shù)。埃里克·施密特任職期間,谷歌實(shí)現(xiàn)搜索引擎公司向科技巨頭的轉(zhuǎn)型。2011 年-2019 年,拉里·佩奇重新成為谷歌 CEO,谷歌在在線廣告業(yè)務(wù)外,不斷探索云業(yè)務(wù)、生物科技、智能家居、資本投 資、寬帶服務(wù)和自動(dòng)駕駛等創(chuàng)新業(yè)務(wù)。2019 年桑達(dá)爾·皮猜任職 Alphabet 和谷歌 CEO,桑達(dá)爾·皮猜曾擔(dān)任谷 歌 Android 操作系統(tǒng)、Chrome 瀏覽器等核心產(chǎn)品負(fù)責(zé)人,對(duì)谷歌主營(yíng)業(yè)務(wù)運(yùn)營(yíng)具備經(jīng)驗(yàn)。
組織架構(gòu)方面,谷歌組織建構(gòu)經(jīng)過(guò)三次調(diào)整。上市之初,公司組織架構(gòu)運(yùn)行“創(chuàng)始人+CEO 三人共同決策& 扁平化”的組織結(jié)構(gòu),其中兩位聯(lián)合創(chuàng)始人聚焦技術(shù),具有豐富經(jīng)驗(yàn)的桑達(dá)爾·施密特?fù)?dān)任 CEO 負(fù)責(zé)運(yùn)營(yíng)。此 時(shí)組織架構(gòu)特點(diǎn)為:公司內(nèi)部減少層級(jí)關(guān)系,以項(xiàng)目組形式開展工作,但項(xiàng)目實(shí)行申請(qǐng)制且項(xiàng)目職責(zé)不明,導(dǎo) 致公司管理混亂且復(fù)雜。
2011 年,谷歌聯(lián)合創(chuàng)始人拉里·佩奇(Larry Page)出任谷歌 CEO 后,簡(jiǎn)化組織框架,將 組織架構(gòu)調(diào)整為“CEO+六位高級(jí)副總裁”。此階段組織架構(gòu)特點(diǎn)為:YouTube、搜索、廣告、社交、Chrome 和移動(dòng)業(yè)務(wù)等重要產(chǎn)品部門分別由一位高級(jí)副總裁負(fù)責(zé),部門可獨(dú)立提出產(chǎn)品計(jì)劃,自主權(quán)提高。2015 年,因 為谷歌除主營(yíng)業(yè)務(wù)外,進(jìn)一步探索了自動(dòng)駕駛、生物科技等多領(lǐng)域產(chǎn)品,為解決組織架構(gòu)龐大和體系臃腫問(wèn)題, 以及充分劃分公司業(yè)務(wù)和部門職能,谷歌組建母公司 Alphabet,將核心業(yè)務(wù)歸于谷歌,非核心業(yè)務(wù)拆分谷歌的 同級(jí)子公司,歸于母公司 Alphabet 下。子母公司 CEO 分別由桑達(dá)爾·皮猜和拉里·佩奇擔(dān)任。2019 年,谷歌 進(jìn)一步簡(jiǎn)化組織架構(gòu),Alphabet 和 Google 均由桑達(dá)爾·皮猜?lián)?CEO。
1.2、財(cái)務(wù)分析:收入結(jié)構(gòu)逐步優(yōu)化,利潤(rùn)率保持穩(wěn)定
收入結(jié)構(gòu)上,廣告收入是公司主要營(yíng)收來(lái)源但占比逐年下滑,谷歌云營(yíng)收占比逐年提高,而其他收入保持 穩(wěn)定。谷歌收入結(jié)構(gòu)包括廣告業(yè)務(wù)、谷歌云和其他收入等,F(xiàn)Y12- FY22,谷歌廣告收入從 95%降至 80%。谷歌 云營(yíng)收由 6%增至 9%,而其他收入穩(wěn)定保持約 10%。費(fèi)用率方面,F(xiàn)Y21- FY22 受疫情影響、海外監(jiān)管政策壓制 和招聘放緩,2021 年管理費(fèi)用下降,但 2022 年呈現(xiàn)回升態(tài)勢(shì)。
2.1、研究框架:聚焦模型結(jié)構(gòu)、預(yù)訓(xùn)練模型、下游調(diào)試、部署、推斷等環(huán)節(jié)
大模型領(lǐng)域的研究核心要素包括模型結(jié)構(gòu)、預(yù)訓(xùn)練模型、下游調(diào)試、模型部署、模型推斷等。根據(jù)青源會(huì), 大模型研究領(lǐng)域存在一定問(wèn)題,包括同質(zhì)化嚴(yán)重的情況,多數(shù)廠商采取類似的模型架構(gòu),例如 GPT、Bert、T5 等。由于模型架構(gòu)同質(zhì)化,影響模型效果的核心因素更多是工程方面的技巧、細(xì)節(jié)??傮w上,大模型領(lǐng)域的研 究機(jī)會(huì)主要包括 1)模型結(jié)構(gòu),例如非注意力交互機(jī)制、稀疏路由結(jié)構(gòu)等;2)預(yù)訓(xùn)練模型,例如預(yù)訓(xùn)練任務(wù)設(shè) 計(jì)、模型更新方法等;3)下游調(diào)試,如探索任務(wù)微調(diào)效率提升方法;4)模型部署,如統(tǒng)一的任務(wù)范式,通過(guò) 單一模型支撐多種任務(wù);5)模型推斷,如模型壓縮、剪枝、動(dòng)態(tài)路由等。我們對(duì)比不同廠商大模型研發(fā)水平也 主要參照上述框架。
2.1.2、綜述:Scaling Law、Prompt Engineering驅(qū)動(dòng)LLMs加速發(fā)展
從技術(shù)路線上看,GPT、T5、BERT 都是基于 Transformer 架構(gòu)衍生而來(lái)的。Tranformer 相對(duì) RNN 引入 了注意力機(jī)制(Attention mechanism),實(shí)現(xiàn)對(duì)全局信息的利用,同時(shí)簡(jiǎn)化計(jì)算復(fù)雜度,實(shí)現(xiàn)對(duì)下游任務(wù)的泛化 應(yīng)用。由于更簡(jiǎn)潔的模型結(jié)構(gòu)設(shè)計(jì)和參數(shù)假設(shè),Transformer 在數(shù)據(jù)抓取能力方面有所取舍,從而導(dǎo)致為了實(shí)現(xiàn) 效果提升,需要進(jìn)行更大規(guī)模的數(shù)據(jù)訓(xùn)練,以及構(gòu)建更大規(guī)模的模型,間接導(dǎo)致了當(dāng)前模型越來(lái)越大的趨勢(shì)。
根據(jù) OpenAI 研究,預(yù)訓(xùn)練模型的擴(kuò)大帶來(lái)資源投入的指數(shù)級(jí)增長(zhǎng),而效果呈現(xiàn)線性增長(zhǎng)的趨勢(shì),這意味 著邊際投入帶來(lái)的效果提升,即邊際收益呈現(xiàn)遞減的趨勢(shì),也就是給定算力等資源成本下存在參數(shù)規(guī)模的極限 值,使得 ROI 最優(yōu)。另外,根據(jù) GPT-4 技術(shù)報(bào)告,Inverse Scaling Prize 提出,在一些任務(wù)上,隨著參數(shù)規(guī)模的 擴(kuò)張,大模型在任務(wù)上的表現(xiàn)反而出現(xiàn)下降的情況。
GPT 是基于Transformer架構(gòu),將decoder(解碼器)取出,也就是 Decoder-only 模型;相較之下,BERT是將 Transformer 架構(gòu)的 Encoder(編碼器)取出,即 Encoder-only,后續(xù) T5 模型則是 Encoder-Decoder 模型。 模型結(jié)構(gòu)的差異會(huì)導(dǎo)致其在下游任務(wù)表現(xiàn)的差異,例如過(guò)去學(xué)界認(rèn)為 Encoder 模型對(duì)上下文理解能力更強(qiáng), 因?yàn)槠淇梢越Y(jié)合上下文信息進(jìn)行輔助判斷,而 Decoder-Only 模型僅能通過(guò)下文信息進(jìn)行決策,存在一定信息損 失。這一定程度上解釋了 BERT 類模型在小參數(shù)規(guī)模下在下游任務(wù)上表現(xiàn)好于 GPT 系列模型。
然而,近年 NLP 行業(yè)下游任務(wù)的統(tǒng)一化趨勢(shì)改變了 BERT 模型的相對(duì)優(yōu)勢(shì),即學(xué)者發(fā)現(xiàn)可以通過(guò)改變提問(wèn) 方式將分類、匹配等下游任務(wù)統(tǒng)一為一類問(wèn)題,從而最大化模型效果,后續(xù)發(fā)展出 Prompt engineering(提示工程)。下游任務(wù)的統(tǒng)一相當(dāng)于幫助 Encoder/Decoder 模型規(guī)避其不擅長(zhǎng)的任務(wù)領(lǐng)域。在此基礎(chǔ)上,GPT 能夠脫穎 而出更多得益于工程方面的提升而非在技術(shù)思想上創(chuàng)新,需要指出的是,GPT 模型采用的多數(shù)技術(shù)都是此前的 學(xué)術(shù)研究成果,就科研貢獻(xiàn)本身,GPT 模型的提升并不多。
從技術(shù)路線上看,包括 ERNIE 在內(nèi)的多數(shù)廠商選擇 BERT 路線(Encoder-only),少數(shù)選擇T5路線 (Encoder-Decoder),較少選擇GPT路線(Decoder-only)。這種選擇可以從學(xué)術(shù)影響力看出,BERT 論文的 被引用量遠(yuǎn)大于 GPT 系列論文及 T5 系列論文。事后看,當(dāng)前OpenAI旗下GPT系列模型的領(lǐng)先得益于早期技 術(shù)選型的成功,這一成功是建立在以下基礎(chǔ)上——GPT的學(xué)界/業(yè)界影響力小于 BERT,導(dǎo)致多數(shù)廠商選擇跟蹤 BERT 的工作。
GPT 路線此前的影響力弱于 BERT 路線主要由于 1)Google 品牌背書;2)開源精神;3)產(chǎn)研結(jié)合難度。 OpenAI 旗下的 GPT 路線基于 Transformer 架構(gòu),將解碼器單獨(dú)取出,論文發(fā)布時(shí)間早于 BERT 論文發(fā)布時(shí)間。 但論文的業(yè)界影響力弱于 BERT,我們認(rèn)為,這主要由于 Google 的品牌背書,Google 研究團(tuán)隊(duì)在 AI 領(lǐng)域的研 究積累導(dǎo)致業(yè)界對(duì)其研究關(guān)注度更高。另一方面,GPT 系列論文發(fā)布后,相關(guān)數(shù)據(jù)集、模型不完全開源,導(dǎo)致 其他研究團(tuán)隊(duì)很難跟進(jìn)和復(fù)現(xiàn)其研究成果,這進(jìn)一步削弱了業(yè)界/學(xué)界跟進(jìn)研究的動(dòng)力。最重要的是,OpenAI 團(tuán)隊(duì)解決問(wèn)題的思路與當(dāng)時(shí)業(yè)界/學(xué)界有所差異,此前研究人員更傾向于設(shè)計(jì)精細(xì)的模型結(jié)構(gòu)和高效的方法,實(shí) 現(xiàn)相同規(guī)模下效果更優(yōu),而 GPT 引入 Few-Shot/Zero-Shot 下表現(xiàn)沒(méi)有明顯好于 Fine-tuning 下的其他模型,只是 在數(shù)據(jù)量和參數(shù)量指數(shù)提升后表現(xiàn)快速提升。
這里存在 2 個(gè)問(wèn)題:1)線性外推的思維定式。2)業(yè)界研究的思維習(xí)慣:追求效率,聚焦更具體的問(wèn)題。 首先是 1)線性外推的思維定式,多數(shù)研究團(tuán)隊(duì)選擇優(yōu)先調(diào)整模型結(jié)構(gòu)和訓(xùn)練方法等路線的隱含假設(shè)是,規(guī)模 擴(kuò)張不會(huì)對(duì)技術(shù)路線的效率產(chǎn)生明顯影響,或者即使產(chǎn)生影響,但相比規(guī)模擴(kuò)張帶來(lái)的成本,其投入難度很難 同比擴(kuò)大。例如,OpenAI 的團(tuán)隊(duì)在 2020 年 1 月發(fā)現(xiàn)模型參數(shù)規(guī)模與效果存在冪律關(guān)系,即模型參數(shù)呈指數(shù)增 長(zhǎng)時(shí),性能會(huì)線性增加,但 GPT-3 規(guī)模大于 BERT large 幾個(gè)數(shù)量級(jí),Zero-Shot/One-Shot 下效果也沒(méi)有明顯優(yōu) 勢(shì)。這意味著 Fine-tuned 的效率提升優(yōu)于參數(shù)規(guī)模擴(kuò)大所帶來(lái)的影響。2022 年 1 月,Google 和 DeepMind 研究 團(tuán)隊(duì)發(fā)現(xiàn) Fine-tuning 也存在冪律關(guān)系2,因此行業(yè)主要聚焦既定規(guī)模模型的效率提升。
Google研究推動(dòng)規(guī)模競(jìng)賽加速,規(guī)模界限分別是62B和175B。2022年1月,Google團(tuán)隊(duì)開創(chuàng)了思維鏈(CoT) 領(lǐng)域研究《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》,通過(guò) prompt 中引導(dǎo)大模型 進(jìn)行邏輯推理的方式實(shí)現(xiàn)性能優(yōu)化,并且這種優(yōu)化幅度大于此前規(guī)模提升帶來(lái)的線性提升。而下一個(gè)自然的問(wèn) 題則是參數(shù)規(guī)模的界限,Google 團(tuán)隊(duì)在 2022 年 12 月3比較了不同參數(shù)規(guī)模下直接 prompt 以及 CoT 下的表現(xiàn), 得出以下結(jié)論:對(duì)于所有小于 62B 的模型,直接用提示詞都好于思維鏈。結(jié)合 GPT-3 模型規(guī)模,至少需要大 于 175B4,思維鏈的效果才能大于 Fine-tuned 小模型的效果。
除規(guī)模外,訓(xùn)練語(yǔ)料也可能對(duì) CoT 能力產(chǎn)生較大影響。根據(jù) Mirac Suzgun(2022)等人的研究5,基于代 碼和文本數(shù)據(jù)訓(xùn)練的 Codex 模型在基于提示遵循任務(wù)指令、探索算法規(guī)律方面表現(xiàn)優(yōu)于 InstructGPT 和 PaLM。 更進(jìn)一步,學(xué)界/業(yè)界希望分析出具體哪一因素導(dǎo)致 CoT 能力產(chǎn)生(主要區(qū)分 fine-tuned/代碼訓(xùn)練),因而進(jìn)行 對(duì)比研究。Jason Wei在第一版論文(https://arxiv.org/pdf/2201.11903v1.pdf)提到,GPT-3 text-davinci-001在GSM8K 測(cè)試集上表現(xiàn)的推理能力較弱,而 text-davinci-001 是完全基于文本訓(xùn)練的模型。在論文第五版中 GPT-3 text-davinci-002/Codex code-davinci-002 在 GSM8K 測(cè)試集上表現(xiàn)明顯提升。
而 Percy Liang 等研究6總結(jié)基于代碼 訓(xùn)練的模型在推理能力方面強(qiáng)于非代碼訓(xùn)練的模型,其測(cè)試集中平均推理能力 Codex cushman v1 位列(9/30), Codex davinci v2(1/30)。因此推理能力來(lái)自代碼訓(xùn)練的可能性更大,代碼訓(xùn)練對(duì)提升推理能力有明顯幫助。更進(jìn)一步的佐證是 Zero-Shot Prompting。根據(jù) Takeshi Kojima 等人的研究7,通過(guò)加入“Let’s think step by step” 提示,模型的表現(xiàn)有顯著提升。且根據(jù)《Scaling Instruction-Finetuned Language Models》,F(xiàn)inetune 計(jì)算量?jī)H占 預(yù)訓(xùn)練的很小比例,因此更大可能邏輯推理能力是預(yù)訓(xùn)練模型本身具備的,CoT Prompt 激活了這類能力。
對(duì)齊調(diào)優(yōu)方面,根據(jù)《A Survey of Large Language Models》,RLHF 等技術(shù)主要是幫助實(shí)現(xiàn)對(duì)齊調(diào)優(yōu) (Alignment Tuning),目前的主流目標(biāo)是 Helpful、Honest、Harmless。OpenAI 團(tuán)隊(duì)8提出通過(guò)遞歸法能夠?qū)?現(xiàn)對(duì)長(zhǎng)難文本的歸納總結(jié),并指出這類方法可以進(jìn)一步泛化至其他類型的任務(wù)上,實(shí)現(xiàn)與人類的對(duì)齊。此外, 論文指出 RL 比 SL 更有效地幫助模型對(duì)比。
具體細(xì)節(jié)方面,John Schulman 在《Reinforcement Learning from Human Feedback: Progress and Challenges》9提到,SFT 與其等價(jià)的 BC 存在固有缺陷,即訓(xùn)練越充分越容易出現(xiàn)欺騙(即 模型并不明確自己知識(shí)的邊界),RLHF 則是讓模型明確有些問(wèn)題自己不知道。原理上是因?yàn)?SL 訓(xùn)練時(shí)只有正反饋,而且對(duì)偏離樣本的懲罰較重,RL 多樣性更好,因而在面對(duì)不知道的問(wèn)題時(shí),SL 訓(xùn)練充分的模型傾向于 回答(胡編亂造),而非反饋不知道10。需要指出的是,OpenAI 提出 alignment tax,即模型犧牲部分性能實(shí)現(xiàn) 與人的對(duì)齊。
2)另一方面,業(yè)界追求效率的思路,關(guān)注投入產(chǎn)出比。這種思路的本質(zhì)是投入資源稀缺,要在有限的資源 投入下最大化產(chǎn)出。而研究思路背后是互聯(lián)網(wǎng)公司 AI 實(shí)驗(yàn)室與業(yè)務(wù)部門的博弈。縱觀國(guó)內(nèi)外互聯(lián)網(wǎng)公司的 AI 研究部門,其大致經(jīng)歷了職能制、矩陣制、事業(yè)部制等架構(gòu),背后反映了大 廠對(duì) AI 科研部門的不同期許和考核體制,這種激勵(lì)體制也影響了 AI 科研部門的中長(zhǎng)期發(fā)展。
2013 年成立的 FAIR 采取職能制,其定義 Facebook 的 AI 部門為 FAIR + Applied Machine Learning(應(yīng)用機(jī)器學(xué)習(xí)團(tuán)隊(duì))+ Product Groups(產(chǎn)品部署團(tuán)隊(duì))11。但 2018 年組織架構(gòu)調(diào)整后,F(xiàn)AIR 轉(zhuǎn)向矩陣制,即 AI 實(shí)驗(yàn)室同時(shí)對(duì)業(yè)務(wù)部門和技 術(shù)領(lǐng)導(dǎo)(一般是 CTO 體系)負(fù)責(zé)。2021 年底 FAIR 進(jìn)一步調(diào)整,將旗下 AI 研究團(tuán)隊(duì)并入業(yè)務(wù)部門,轉(zhuǎn)向事業(yè) 部制。從職能制向矩陣制、事業(yè)部制,考核體制上越來(lái)越接近業(yè)務(wù),越來(lái)越遠(yuǎn)離學(xué)術(shù)影響力/前瞻研究,這種轉(zhuǎn) 變大多是由于互聯(lián)網(wǎng)公司面臨營(yíng)收、利潤(rùn)壓力,業(yè)績(jī)壓力倒逼研究團(tuán)隊(duì)轉(zhuǎn)向業(yè)務(wù)團(tuán)隊(duì)的“外包”,壓力下部分 研究人員離開業(yè)界,重回學(xué)術(shù)界,這是過(guò)去我們看到的業(yè)界 AI 研究的循環(huán)。
大廠在大模型領(lǐng)域研究的落后有一定時(shí)代特征:對(duì)谷歌來(lái)說(shuō)是價(jià)值觀變革導(dǎo)致凝聚力減弱,同時(shí)創(chuàng)新工作 不足;對(duì) Meta 而言是企業(yè)聲譽(yù)受損導(dǎo)致凝聚力減弱,此外則是戰(zhàn)略重心調(diào)整導(dǎo)致人員流動(dòng)。以谷歌為例,2018-21 年谷歌經(jīng)歷了介入軍事、語(yǔ)音監(jiān)聽(tīng)、倫理委員會(huì)等風(fēng)波,價(jià)值觀或政治正確在內(nèi)外部引發(fā)的爭(zhēng)議導(dǎo)致研究人員 產(chǎn)生分歧,進(jìn)而離開公司。2021 年至今一些谷歌高級(jí)研究人員離職創(chuàng)業(yè)、加入競(jìng)爭(zhēng)對(duì)手等。總體上來(lái)看谷歌 研究人員的離開主要是公司規(guī)模擴(kuò)張帶來(lái)價(jià)值觀稀釋,內(nèi)部分歧管控失敗導(dǎo)致的,另一方面大企業(yè)機(jī)制下對(duì)“創(chuàng)新”的激勵(lì)趨弱,部分員工離職創(chuàng)業(yè)或加入中小型公司,尋求更自由、追求創(chuàng)新的工作。
對(duì) Meta 而言,2018年因非法向劍橋分析泄露超 5000 萬(wàn)用戶信息從而影響美國(guó)選舉,Meta 的企業(yè)形象大幅 惡化,影響了員工對(duì)于企業(yè)的信心,導(dǎo)致當(dāng)年大批高管及核心研究人員離職12。另外2021年 Meta員工的離職 潮主要受戰(zhàn)略變化及組織架構(gòu)調(diào)整影響,由于公司戰(zhàn)略轉(zhuǎn)向 AR/VR,一些員工出于職業(yè)發(fā)展的考慮13加入其他 公司繼續(xù)本領(lǐng)域的研究和工作。
更大的趨勢(shì)在于 1)開源帶來(lái)的技術(shù)擴(kuò)散,頭部科研院所及互聯(lián)網(wǎng)科技公司相比中小公司/科研院所的相對(duì) 優(yōu)勢(shì)在縮減,這主要由于過(guò)去 AI 領(lǐng)域的創(chuàng)新主要來(lái)自方法論層面,而非工程層面,而方法論的創(chuàng)新更隨機(jī);2) 對(duì)大型科技企業(yè)的監(jiān)管約束趨嚴(yán),大多數(shù)美國(guó)互聯(lián)網(wǎng)科技企業(yè)都是在 1990 年后成立,并受益于 20 世紀(jì)末、21 世紀(jì)初的反壟斷監(jiān)管,在快速發(fā)展階段經(jīng)歷了經(jīng)濟(jì)高速增長(zhǎng)、監(jiān)管邊際寬松的環(huán)境,但 2017 年以來(lái)歐盟、韓國(guó) 等對(duì)谷歌、亞馬遜、Meta、蘋果公司、微軟等加強(qiáng)監(jiān)管,導(dǎo)致大型科技公司面臨較高的監(jiān)管壓力。
此外,輿論環(huán)境對(duì)中小型創(chuàng)業(yè)公司容忍度更高也是影響大公司創(chuàng)新成本的要素。包括 Meta、Google、微軟 在內(nèi)的科技公司此前推出類似產(chǎn)品時(shí)都出現(xiàn)過(guò)由于語(yǔ)言模型生成內(nèi)容存在虛假、政治不正確的情況,并引發(fā)輿論熱議,從而迫使產(chǎn)品下線。例如 2015 年 Google 將黑人女性的圖片識(shí)別為 Gorilla(大猩猩)14;2016 年微軟 聊天機(jī)器人因種族歧視言論迅速被下線15;2021 年 Facebook(Meta)將黑人男性標(biāo)注為 Primate(靈長(zhǎng)類動(dòng)物) 16。對(duì)于大型科技公司的輿論和監(jiān)管壓力天然高于創(chuàng)業(yè)公司17,這也導(dǎo)致其面臨較高的合規(guī)成本,喪失部分靈活 性。
總結(jié)來(lái)看,BERT 模型由于存在雙向路徑,實(shí)現(xiàn)相似效果需要的參數(shù)量更大,對(duì)計(jì)算資源的要求更高,在 千億規(guī)模下表現(xiàn)相對(duì)弱于 GPT,且下游任務(wù)統(tǒng)一化利于 GPT 模型。而據(jù) OpenAI,其認(rèn)為 GPT 模型規(guī)模已經(jīng)接 近極限,往后的效果提升需要指數(shù)級(jí)參數(shù)/數(shù)據(jù)規(guī)模提升,邊際效果提升較小,ROI 較低。在類似 Transformer 的新架構(gòu)出現(xiàn)前,GPT 較 BERT 是更好的技術(shù)路徑,不同 GPT 模型的差異主要取決于預(yù)訓(xùn)練等環(huán)節(jié)的差異。
2.1.3、預(yù)訓(xùn)練:差異來(lái)自數(shù)據(jù)集、知識(shí)圖譜、參數(shù)規(guī)模、訓(xùn)練策略
預(yù)訓(xùn)練環(huán)節(jié)的主要差異來(lái)自 1)語(yǔ)料,包括語(yǔ)料規(guī)模、語(yǔ)料配比;2)知識(shí)圖譜的引入;3)訓(xùn)練策略的優(yōu) 化;4)參數(shù)規(guī)模。 1)語(yǔ)料 ERNIE 團(tuán)隊(duì)在 ERNIE 1.0 時(shí)注意到引入不同種類的語(yǔ)料能夠提升模型預(yù)測(cè)的準(zhǔn)確率。OpenAI 團(tuán)隊(duì)在 GPT-3 論文中也引入大規(guī)模且多種類的訓(xùn)練數(shù)據(jù)??傮w而言,語(yǔ)料多樣性越充分,高質(zhì)量語(yǔ)料占比越高,對(duì)模型的預(yù) 測(cè)準(zhǔn)確度有幫助,但學(xué)界在這方面的定量研究仍較為稀缺,語(yǔ)料對(duì)于模型預(yù)測(cè)準(zhǔn)確率的量化影響尚不明確。
2)知識(shí)圖譜的引入 ERNIE 1.0 模型相比 BERT 最大的變化就是引入知識(shí)圖譜,從而提升預(yù)測(cè)準(zhǔn)確度。具體來(lái)講,2019 年 4 月 ERNIE 團(tuán)隊(duì)提出基于 BERT 的改進(jìn)掩碼策略,1)在單詞級(jí)別隨機(jī)生成掩碼并引導(dǎo)模型預(yù)測(cè)(BERT 框架, basic-level masking),2)詞組級(jí)別(phrase-level masking)、實(shí)體級(jí)別(entity-level masking)隨機(jī)生成掩碼并 引導(dǎo)模型預(yù)測(cè)。通過(guò)引導(dǎo)模型預(yù)測(cè)詞組、實(shí)體,模型訓(xùn)練隱性地18引入知識(shí)圖譜概念。 例如:哈利波特是 J.K.羅琳寫的小說(shuō)。單獨(dú)預(yù)測(cè)哈[MASK]波特或者 J.K.[MASK]琳情況下,模型無(wú)法學(xué)到 哈利波特和 J.K.羅琳的關(guān)系。如果把哈利波特直接 MASK 掉的話,那模型可以根據(jù)作者,就預(yù)測(cè)到小說(shuō)這個(gè)實(shí) 體,實(shí)現(xiàn)知識(shí)的學(xué)習(xí)。
3)訓(xùn)練策略的優(yōu)化,ERNIE 2.0 引入持續(xù)學(xué)習(xí)框架,解決知識(shí)遺忘及訓(xùn)練效率的問(wèn)題。ERNIE 1.0 相比基礎(chǔ)版 BERT,改變了掩 碼策略(引入知識(shí)圖譜)和數(shù)據(jù)結(jié)構(gòu)(加入多輪對(duì)話語(yǔ)料),提升了模型預(yù)測(cè)準(zhǔn)確率。此后學(xué)界討論通過(guò)多任 務(wù)學(xué)習(xí)提升模型的預(yù)測(cè)準(zhǔn)確率,例如微軟研究團(tuán)隊(duì)在《Multi-Task Deep Neural Networks for Natural Language Understanding》中論證了通過(guò)在預(yù)訓(xùn)練模型中加入有監(jiān)督的下游任務(wù),能夠優(yōu)化模型在 NLU(自然語(yǔ)言理解) 方面的效果。因此,后續(xù)的一個(gè)思路就是通過(guò)堆疊訓(xùn)練任務(wù)提示模型預(yù)測(cè)準(zhǔn)確率,但相應(yīng)存在一個(gè)問(wèn)題,即模 型出現(xiàn)學(xué)習(xí)新知識(shí)后容易遺忘舊知識(shí),ERNIE 2.0 主要的變化就是針對(duì)這一問(wèn)題提出持續(xù)學(xué)習(xí)框架,實(shí)現(xiàn)知識(shí) 庫(kù)擴(kuò)充,優(yōu)化模型效果。
常規(guī)的模型訓(xùn)練即序列訓(xùn)練模式,即后一個(gè)模型訓(xùn)練是建立在前一個(gè)模型訓(xùn)練結(jié)束后,從模型參數(shù)的角度, 后一個(gè)模型訓(xùn)練初始參數(shù)為前一個(gè)模型,但訓(xùn)練結(jié)束后參數(shù)有所調(diào)整,且由于訓(xùn)練是基于后一個(gè)任務(wù),其對(duì)此 前任務(wù)的預(yù)測(cè)準(zhǔn)確率可能低于此前的訓(xùn)練結(jié)果。學(xué)界此前的解決思路是將多個(gè)任務(wù)同時(shí)訓(xùn)練,確保模型對(duì)不同 時(shí)序加入的任務(wù)等權(quán)學(xué)習(xí),但每新增一個(gè)任務(wù),模型都需要重新訓(xùn)練此前所有的任務(wù),這對(duì)應(yīng)較高的訓(xùn)練成本。 ERNIE 2.0 提出序列多任務(wù)學(xué)習(xí)(Sequential Multi-task Learning)模式,通過(guò)給每個(gè)任務(wù)分配 N 個(gè)訓(xùn)練迭代,自 動(dòng)將每個(gè)任務(wù)的 N 個(gè)迭代分配到不同訓(xùn)練階段,兼顧學(xué)習(xí)效果和效率,較 BERT 框架繼續(xù)優(yōu)化。
OpenAI 在訓(xùn)練策略方面并未披露細(xì)節(jié),但結(jié)果上看 OpenAI 訓(xùn)練效果好于 Meta。GPT-4、InstructGPT 論 文中其透露微軟為 GPT 專門構(gòu)建了計(jì)算集群和訓(xùn)練環(huán)境,確保訓(xùn)練的穩(wěn)定性。GPT-4 的訓(xùn)練環(huán)境經(jīng)過(guò)多次迭代 后表現(xiàn)非常穩(wěn)定。而根據(jù) Susan Zhang 教授19,Meta 在 OPT-175B 模型的訓(xùn)練中出現(xiàn)了 50 多次的斷點(diǎn)(需要回 到 Checkpoint 重啟訓(xùn)練),下圖中不同顏色代表著模型連續(xù)訓(xùn)練的時(shí)間。GPT-4 能夠基于“小模型”訓(xùn)練預(yù)測(cè)大模型的損失函數(shù),從而降低訓(xùn)練負(fù)載,同時(shí)并發(fā)訓(xùn)練多個(gè)模型,提 升訓(xùn)練效率。目前沒(méi)有在其他競(jìng)對(duì)中看到類似的效果。
2.1.4、下游調(diào)試、部署、推斷:RHLF仍處于技術(shù)發(fā)展的早期,潛在優(yōu)化空間大
GPT 系列模型的拐點(diǎn)在 InstructGPT,其引入了 RHLF,對(duì)應(yīng) SFT、RM、PPO 三階段,最終效果是 PPO 模 型預(yù)測(cè)準(zhǔn)確度好于 SFT-175 模型。而 Anthropic 團(tuán)隊(duì)研究《Training a Helpful and Harmless Assistant with Reinforcement Learning from Human Feedback》指出,InstructGPT 基于較小的 RM 訓(xùn)練反饋并非最優(yōu)的,大規(guī)模 的 RM 模型對(duì)模型性能的提升可能更好。
Anthropic 團(tuán)隊(duì)上述研究的副產(chǎn)物即在 RLHF 中模型性能提升與 RM 的關(guān)系,進(jìn)而在后續(xù)研究中可以通過(guò)這 一關(guān)系估算給定性能提升目標(biāo)需要多大規(guī)模的 RM,并且不同參數(shù)規(guī)模的模型性能提升曲線基本上平行的,也 就是基于 RLHF 不同規(guī)模的模型的性能極限可能不同,并且性能提升的斜率可能是近似相同的。 部署和推斷在 OpenAI 論文中大多數(shù)被忽略了,僅提到微軟在這方面的支持。ERNIE 在論文中提到在線蒸 餾框架,實(shí)現(xiàn)算力節(jié)約。
總結(jié)來(lái)看,OpenAI 在 GPT-4 訓(xùn)練結(jié)束后花費(fèi) 6 個(gè)月左右時(shí)間進(jìn)行調(diào)試和其他調(diào)整,其主要精力大體上是 放在調(diào)試上,而部署、推斷等更多依賴微軟和其他合作方的支持。微軟/英偉達(dá)在合作聲明中提到,雙方基于數(shù) 萬(wàn)塊 A100、H100 GPU 芯片,NVIDIA Quantum-2 400Gb/s InfiniBand 架構(gòu),以及 NVIDIA 企業(yè)級(jí)配套軟件等構(gòu) 建了基于公有云的 AI 超級(jí)計(jì)算機(jī)。此外,基于 ONNX runtime 的推理框架,模型的在線推理速度能夠進(jìn)一步優(yōu) 化。
2.1.5、量化效果:基于公開測(cè)試集進(jìn)行量化評(píng)估
學(xué)界/業(yè)界對(duì) LLM 的評(píng)估主要是基于公開測(cè)試集的評(píng)分,例如 GPT-4 的評(píng)分情況如下,GPT-4 在絕大多數(shù) 語(yǔ)言評(píng)測(cè)中都大幅超越了此前的 LLM SOTA(最高分),在視覺(jué)評(píng)測(cè)中部分超越此前的 SOTA,但整體表現(xiàn)并 不如 GPT-4 的一騎絕塵。主要難點(diǎn)可能在于視覺(jué)信息、文本信息的聯(lián)合訓(xùn)練、理解。
2.2、谷歌的競(jìng)爭(zhēng)分析:全棧技術(shù)積累深厚,總體處于第一梯隊(duì)
2.2.1、預(yù)訓(xùn)練環(huán)節(jié):谷歌在訓(xùn)練基礎(chǔ)設(shè)施/訓(xùn)練策略方面布局領(lǐng)先
谷歌在訓(xùn)練集方面不具備明顯優(yōu)勢(shì)。在訓(xùn)練數(shù)據(jù)集方面,現(xiàn)有的大模型主要采用書籍、文章、網(wǎng)頁(yè)等文本 數(shù)據(jù),這些數(shù)據(jù)能夠幫助大模型積累語(yǔ)法、文本知識(shí)、文本理解、上下文連貫邏輯等能力,而在前文“綜述” 部分我們提到代碼對(duì)語(yǔ)言模型的邏輯推理能力具備幫助,因此訓(xùn)練數(shù)據(jù)集的多樣性較為重要,確保大模型積累 多樣化的能力以便后續(xù)激活,這里的問(wèn)題主要是,例如邏輯推理的培養(yǎng)需要一定比例的高質(zhì)量代碼數(shù)據(jù),1)如 何定義高質(zhì)量的數(shù)據(jù),怎么對(duì)原始數(shù)據(jù)進(jìn)行清理、去重20、標(biāo)注等?2)多大比例的數(shù)據(jù)能夠積累能力?就我們 的知識(shí)范圍,目前學(xué)術(shù)界/業(yè)界尚未有較為公開且權(quán)威的研究能夠回答上述問(wèn)題,但總體而言,數(shù)據(jù)質(zhì)量上論文 /書籍/百科≥代碼/文章≥對(duì)話≥網(wǎng)頁(yè)。從這一角度看,Google 在數(shù)據(jù)源方面不存在明顯的優(yōu)勢(shì)。
谷歌在 AI 架構(gòu)、芯片方面處于行業(yè)領(lǐng)先地位。Google 在《Pathways: Asynchronous Distributed Dataflow for ML》 提出了 Pahtways 作為新一代 AI 架構(gòu),其特點(diǎn)是多任務(wù),多通道,稀疏激活。在《PaLM: Scaling Language Modeling with Pathways》中,Google 提到 Pathway 下 MFU(Model Flops Utilization)達(dá)到 46.2%,高于 GPT-2/3 在 A100/V100 集群上的利用率 35.7%/21.3%,但低于 GPT-3 基于英偉達(dá) Megatron-A100 集群實(shí)現(xiàn)的利用率 52%。TPU 方面, TPU 在 MLPerf 部分場(chǎng)景的性能測(cè)試中表現(xiàn)優(yōu)于 A100,其中 TPU v4 在 4096 塊芯片,應(yīng)用 BERT 場(chǎng)景下性能是 A100 的 1.15 倍左右;ResNet 場(chǎng)景下 TPU v4 則是 A100 性能的 1.67 倍。
大模型的訓(xùn)練穩(wěn)定性是過(guò)去研究涉及較少的。由于小模型訓(xùn)練時(shí)長(zhǎng)較短,涉及的軟硬件協(xié)同面較窄,擴(kuò)展 至大模型下集群出現(xiàn)異?;蝈e(cuò)誤的概率大幅提升,相應(yīng)帶來(lái)模型訓(xùn)練的不穩(wěn)定性(Training instability),以及 資源的額外耗費(fèi)(一般需要回到 checkpoint 重新訓(xùn)練)。在訓(xùn)練策略上,Google 團(tuán)隊(duì)在 PaLM 論文中提到模型 訓(xùn)練過(guò)程中多次出現(xiàn)損失函數(shù)的突變(we observed spikes in the loss roughly 20 times during training21),而 Susan Zhang 在 Stanford 分享 OPT 模型訓(xùn)練過(guò)程中展示了模型訓(xùn)練中也出現(xiàn)了多次波動(dòng)。
谷歌在模型訓(xùn)練方面具有較好積累。Diederik P. Kingma 和 Jimmy Lei Ba 2014 年發(fā)表《Adam: A method for stochastic optimization》,Adam 是一種可以替代傳統(tǒng)隨機(jī)梯度下降過(guò)程的一階優(yōu)化算法,它能基于訓(xùn)練數(shù)據(jù)迭 代地更新神經(jīng)網(wǎng)絡(luò)權(quán)重。Diederik P. Kingma 于 2015 年與其他合伙人共同創(chuàng)立 OpenAI,并于 2018 年加入 Google Brain。而 Google 團(tuán)隊(duì)于 2023 年 2 月提出了 Lion 優(yōu)化器22,此前流行的 AdamW 等自適應(yīng)優(yōu)化器需要同時(shí)保存 一階和二階矩相比,Lion 只需要?jiǎng)恿?,這意味著內(nèi)存占用降低,且在訓(xùn)練大型模型和大 Batch size 時(shí)效果顯著。
此外,Google 研究團(tuán)隊(duì)在 2021 年《Sharpness-aware minimization for efficiently improving generalization》提 出 Sharpness-aware minimization (SAM)方法,除了提升模型的泛化表現(xiàn),SAM 可以提高模型對(duì)標(biāo)簽噪聲的穩(wěn)健性 (robustness)。后續(xù) NUS23和字節(jié)跳動(dòng)24的研究團(tuán)隊(duì)進(jìn)一步優(yōu)化了 SAM 方法。模型初始化策略方面,MIT 和 Google252019 年提出 Fixup 策略,避免梯度爆炸或消失,并可以應(yīng)用于超過(guò) 1 萬(wàn)層的神經(jīng)網(wǎng)絡(luò)。后續(xù) UCSD26和 Google27進(jìn)一步在此基礎(chǔ)上提出 Rezero 和 SkipInit,具體到每一層執(zhí)行操作, 實(shí)現(xiàn)進(jìn)一步優(yōu)化。
2.2.2、模型調(diào)試:谷歌在Fine-tuning,Prompt engineering方面領(lǐng)先,在Alignment Tuning等領(lǐng)域與OpenAI存在差距
Google 團(tuán)隊(duì)在模型調(diào)試和 Prompt engineering 方面積累領(lǐng)先行業(yè)。在前文綜述部分,我們提到谷歌團(tuán)隊(duì)開 創(chuàng)了 CoT 研究,其論文《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》引入 CoT Prompt, 并通過(guò)對(duì)比實(shí)驗(yàn)探測(cè)出模型能力涌現(xiàn)的界限大約是 62B 和 175B。Google 團(tuán)隊(duì)在 2022 年 12 月比較了不同參數(shù) 規(guī)模下直接 prompt 以及 CoT 下的表現(xiàn),得出以下結(jié)論:對(duì)于所有小于 62B 的模型,直接用提示詞都好于思維 鏈。結(jié)合 GPT-3 模型規(guī)模,至少需要大于 175B,思維鏈的效果才能大于 Fine-tuned 小模型的效果。東京大學(xué)和 Google 團(tuán)隊(duì)《Large Language Models are Zero-Shot Reasoners》更進(jìn)一步提出 Zero-Shot Prompting,即加入“Let’sthink step by step”可以顯著的提升模型性能。
對(duì)齊調(diào)優(yōu)方面,OpenAI 及 Anthropic 相對(duì)領(lǐng)先。OpenAI 團(tuán)隊(duì)28提出通過(guò)遞歸法能夠?qū)崿F(xiàn)對(duì)長(zhǎng)難文本的歸 納總結(jié),并指出這類方法可以進(jìn)一步泛化至其他類型的任務(wù)上,實(shí)現(xiàn)與人類的對(duì)齊。此外,論文指出 RL 比 SL 更有效地幫助模型對(duì)比。具體細(xì)節(jié)方面,John Schulman 在《Reinforcement Learning from Human Feedback: Progress and Challenges》29提到,SFT 與其等價(jià)的 BC 存在固有缺陷,即訓(xùn)練越充分越容易出現(xiàn)欺騙(即模型并不明確自 己知識(shí)的邊界),RLHF 則是讓模型明確有些問(wèn)題自己不知道。原理上是因?yàn)?SL 訓(xùn)練時(shí)只有正反饋,而且對(duì)偏 離樣本的懲罰較重,RL 多樣性更好,因而在面對(duì)不知道的問(wèn)題時(shí),SL 訓(xùn)練充分的模型傾向于回答(胡編亂造), 而非反饋不知道30。需要指出的是,OpenAI 提出 alignment tax,即模型犧牲部分性能實(shí)現(xiàn)與人的對(duì)齊。
總結(jié)來(lái)看,谷歌在大模型領(lǐng)域的布局是全方位的,涵蓋上游芯片、分布式計(jì)算集群、深度學(xué)習(xí)框架,以及 模型訓(xùn)練、調(diào)試優(yōu)化策略,并且在多數(shù)環(huán)節(jié)保持領(lǐng)先地位,OpenAI 的成功則是建立在與微軟、英偉達(dá)等公司相 互合作的基礎(chǔ)上,并且是 OpenAI 與微軟是通過(guò)股權(quán)投資綁定利益關(guān)系,這意味著其他競(jìng)爭(zhēng)者模仿的難度較大, 而就互聯(lián)網(wǎng)平臺(tái)而言,Google 在 AI 領(lǐng)域的積累深厚,整體并不落后于 OpenAI 的情況。
(本文僅供參考,不代表我們的任何投資建議。如需使用相關(guān)信息,請(qǐng)參閱報(bào)告原文。)
凡本網(wǎng)注明“XXX(非汪清新聞網(wǎng))提供”的作品,均轉(zhuǎn)載自其它媒體,轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點(diǎn)和其真實(shí)性負(fù)責(zé)。
今天,在中央第一環(huán)境保護(hù)督察組向吉林省反饋督察情況后,省委書記巴音朝魯立即主持召開省委常委會(huì)議,聽(tīng)取關(guān)于中央環(huán)保督察反饋問(wèn)題整改工
2017-12-29 14:30
新浪科技訊 12月28日消息,由空間瞭望智庫(kù)、《國(guó)際太空》和《衛(wèi)星應(yīng)用》雜志,以及中國(guó)太空網(wǎng)聯(lián)合組織的2017年全球十大航天新聞和中國(guó)十大
2017-12-28 21:47
保潔人員先用馬桶刷子刷茶杯,隨后用同一把馬桶刷子刷馬桶。緊接著,她用浴巾擦杯子,再蘸了馬桶水擦地,最后將浴巾放在地上整理。馬桶刷刷
2017-12-28 21:12
近日,國(guó)家發(fā)改委、住建部、商務(wù)部、工信部、交通部等部委密集召開年度工作會(huì)議,貫徹落實(shí)中央經(jīng)濟(jì)工作會(huì)議精神,部署2018年的重點(diǎn)工作,在
2017-12-27 21:40
根據(jù)中共中央辦公廳、國(guó)務(wù)院辦公廳印發(fā)的《生態(tài)文明建設(shè)目標(biāo)評(píng)價(jià)考核辦法》和國(guó)家發(fā)展改革委、國(guó)家統(tǒng)計(jì)局、環(huán)境保護(hù)部、中央組織部印發(fā)的《
2017-12-26 16:34
21年前的12月25日,這一天是圣誕節(jié),雖然是西方的節(jié)日,但隨著夜幕降臨,歡樂(lè)的節(jié)日氣氛也隨之而來(lái)。當(dāng)晚,八點(diǎn)多鐘,長(zhǎng)春市寬城區(qū)的一家藥
2017-12-15 22:18
十九大報(bào)告再次明確創(chuàng)新的地位:創(chuàng)新是引領(lǐng)發(fā)展的第一動(dòng)力,是建設(shè)現(xiàn)代化經(jīng)濟(jì)體系的戰(zhàn)略支撐。2017年,我省創(chuàng)新成果豐碩,形成了跟跑、齊跑
2017-12-12 10:34
每到關(guān)鍵節(jié)點(diǎn),人們總是根據(jù)一些重要信號(hào)來(lái)判斷一項(xiàng)工作的走勢(shì)。十九大閉幕后的首月,人們熟悉的打虎節(jié)奏和信息如約而至,中央紀(jì)委監(jiān)察部網(wǎng)
2017-12-08 12:32
長(zhǎng)春、通化、白山、遼源入選東北地區(qū)民營(yíng)經(jīng)濟(jì)發(fā)展改革示范城市,在政策環(huán)境、金融環(huán)境、創(chuàng)新環(huán)境、促進(jìn)民營(yíng)經(jīng)濟(jì)轉(zhuǎn)型升級(jí)及人才隊(duì)伍建設(shè)等方
2017-12-08 12:21
11月,全國(guó)300城市土地市場(chǎng)供求回落,但各線城市土地成交均價(jià)環(huán)同比繼續(xù)上漲。綜合前11個(gè)月來(lái)看,年度土地出讓收入整體保持同比上漲勢(shì)態(tài)。6
2017-12-07 18:43