国产成人精品18p,天天干成人网,无码专区狠狠躁天天躁,美女脱精光隐私扒开免费观看

李飛飛發(fā)文發(fā)布谷歌云機器學(xué)習AutoML Vision平臺

發(fā)布時(shí)間:2022-06-07 07:16 來(lái)源:IDC圈 閱讀:95 作者:網(wǎng)絡(luò ) 欄目: 互聯(lián)網(wǎng)

今天,在谷歌云首席科學(xué)家李飛飛和谷歌云研發(fā)負責人李佳合著(zhù)的這篇谷歌云博客中,她們就正式宣告了谷歌云 AutoML 平臺的面世。在這里,構建、訓練和部署自定義的機器學(xué)習模型也變得簡(jiǎn)單方便,甚至對機器學(xué)習不甚了解的企業(yè)也可以構建自己的人工智能系統。

以下為博客全文:

在差不多一年多以前我們兩個(gè)人共同加入谷歌云的時(shí)候,我們都心懷一個(gè)使命,那就是讓 AI 平民化。我們的目標是降低 AI 的使用門(mén)檻,讓 AI 對盡可能多的開(kāi)發(fā)者、研究者和商業(yè)用戶(hù)來(lái)說(shuō)變得觸手可及。

我們谷歌云 AI 團隊一直在向著(zhù)這個(gè)目標做出進(jìn)步。在 2017 年,我們發(fā)布了谷歌云機器學(xué)習引擎(Google Cloud Machine Learning Engine),幫助具有機器學(xué)習知識的開(kāi)發(fā)者們輕松地構建能處理任何種類(lèi)的、任意大小的數據的機器學(xué)習模型。我們表明了現代機器學(xué)習服務(wù)——換句話(huà)說(shuō)就是包括了視覺(jué)、語(yǔ)音、NLP、翻譯和對話(huà)流的 API 們——可以構建在預訓練的基礎模型之上,為商業(yè)應用提供無(wú)可比擬的服務(wù)規模和運行速度。我們的數據科學(xué)家和機器學(xué)習研究者社區 Kaggle 也已經(jīng)發(fā)展到了擁有超過(guò)一百萬(wàn)名用戶(hù)。而今天,已經(jīng)有包括 Box、勞斯萊斯、Kewpie 和 Ocado 在內的超過(guò)一萬(wàn)家企使用著(zhù)谷歌云的 AI 服務(wù)。

不過(guò)除此之外我們還能做很多?,F在,全世界的企業(yè)中有足夠的知識技能和預算以便能夠充分享受機器學(xué)習和人工智能帶來(lái)的好處的企業(yè)并不多,能創(chuàng )建出高級機器學(xué)習模型的人才也非常有限。而且,即便是一個(gè)有機器學(xué)習/人工智能工程師的企業(yè),構建自定義機器學(xué)習模型的過(guò)程仍然非常費時(shí)、非常復雜,很難管理。雖然谷歌云已經(jīng)通過(guò) API 提供了預訓練好的機器學(xué)習模型,足夠完成某些特定任務(wù),但是距離我們想要的「把 AI 帶個(gè)每個(gè)人」還是有很長(cháng)的路要走。

為了縮小這其中的距離,以及為了讓每個(gè)企業(yè)都能更輕松地接觸并使用 AI,我們今天向大家介紹谷歌云 AutoML。對于只有有限的機器學(xué)習知識的企業(yè),谷歌云 AutoML 可以通過(guò)谷歌的高級技術(shù)手段,比如 learn2learn 和遷移學(xué)習,幫助他們動(dòng)手構建自己的高質(zhì)量自定義模型。我們相信谷歌云 AutoML 可以讓 AI 專(zhuān)家們發(fā)揮出更大的生產(chǎn)力、探索 AI 的新領(lǐng)域,以及幫助技能有限的工程師構建他們曾經(jīng)只能夢(mèng)想擁有的強大的人工智能系統。

我們發(fā)布的首個(gè)谷歌云 AutoML 版本將會(huì )是云 AutoML Vision,建立自定義圖像識別模型會(huì )因它而更快、更簡(jiǎn)單。它的允許直接拖拽的界面可以讓你輕松地上傳圖像、訓練和管理模型,然后直接在谷歌云平臺上步數這些訓練好的模型。在谷歌云 AutoML Vision 的早期測試結果中,分類(lèi)熱門(mén)公共數據集 ImageNet 和 CIFAR 已經(jīng)展現出了優(yōu)秀的表現,相比通用的機器學(xué)習 API 可以更準確、有更低的分類(lèi)誤差。

谷歌云 AutoML Vision 還有下面這些好處:

更高的準確性:谷歌云 AutoML Vision 是基于谷歌的頂尖圖像分類(lèi)方法構建的,包括遷移學(xué)習和神經(jīng)架構搜索技術(shù)。這意味著(zhù),即便使用它的企業(yè)只有有限的機器學(xué)習技術(shù)能力,最終也能得到比以往做法準確得多的模型。

達到生產(chǎn)級別模型所需的開(kāi)發(fā)周期更短:接觸谷歌云 AutoML,用戶(hù)可以用幾分鐘的時(shí)間就構建出一個(gè)簡(jiǎn)單的模型,然后把它連接到帶有 AI 功能的應用程序上;或者是構建一個(gè)完整的、生產(chǎn)級別的模型也最短只需要一天時(shí)間就可以完成。

使用簡(jiǎn)單:谷歌云 AutoML Vision 提供了一個(gè)簡(jiǎn)潔的圖形化用戶(hù)界面,它可以讓用戶(hù)選擇數據,然后把所選的數據轉換成根據用戶(hù)的具體需求量身訂制的高質(zhì)量模型。

「我們 Urban Outfitters 一直在尋找提高用戶(hù)的購物體驗的新方法」,Urban Outfitters 的數據科學(xué)家 Alan Rosenwinkel 說(shuō)道,「我們要給我們的用戶(hù)提供有意義的產(chǎn)品推薦、準確的搜索結果和好用的產(chǎn)品篩選系統,歸類(lèi)并維持一組豐富的產(chǎn)品特點(diǎn)對此而言就非常重要。然而,人工給產(chǎn)品特點(diǎn)歸類(lèi)很困難也很花時(shí)間。為了改善這個(gè)問(wèn)題,我們團隊已經(jīng)在評估使用谷歌云 AutoML 了,我們打算讓它識別產(chǎn)品上圖案樣式、領(lǐng)口風(fēng)格之類(lèi)的微妙產(chǎn)品特點(diǎn),從而把產(chǎn)品特點(diǎn)的歸類(lèi)過(guò)程自動(dòng)化。谷歌云 AutoML 很有潛力幫我們給用戶(hù)帶來(lái)更好的探索、推薦和搜索體驗?!?/p>

迪士尼消費級產(chǎn)品和互動(dòng)媒體 CTO、高級副總裁 Mike White 表示:「谷歌云 AutoML 的技術(shù)正在幫助我們構建視覺(jué)模型,這些模型可以給我們的產(chǎn)品添加迪士尼卡通形象、產(chǎn)品類(lèi)別和顏色的標注。我們也正在把這些標注結果整合到我們的搜索引擎中,通過(guò)相關(guān)性更高的搜索結果、更快的探索發(fā)現和產(chǎn)品推薦過(guò)程把我們的迪士尼商店的用戶(hù)體驗再提升一個(gè)臺階?!?/p>

倫敦動(dòng)物學(xué)會(huì )的動(dòng)物保護技術(shù)負責人 Sophie Maxwell 也說(shuō):「倫敦動(dòng)物學(xué)會(huì )是一個(gè)世界性的動(dòng)物保護慈善組織,我們專(zhuān)注于全世界的動(dòng)物和動(dòng)物棲息地保護。這種任務(wù)中的一個(gè)關(guān)鍵要求就是要追蹤野外的動(dòng)物種群、學(xué)習它們的種群分布、更好地理解人類(lèi)活動(dòng)對這些物種產(chǎn)生的影響。為了達到這個(gè)目標,倫敦動(dòng)物學(xué)會(huì )在野外布置了一系列自動(dòng)照相機,當有動(dòng)物經(jīng)過(guò)時(shí),它們會(huì )被熱量或者運動(dòng)觸發(fā),拍下經(jīng)過(guò)的動(dòng)物的照片。這些設備會(huì )拍下數百萬(wàn)張照片,然后我們需要用人力分析查看、標注上相關(guān)的動(dòng)物種類(lèi),比如是獅子、大象還是長(cháng)頸鹿等等,這個(gè)過(guò)程需要非常多的人力,而且資金開(kāi)銷(xiāo)很大。倫敦動(dòng)物學(xué)會(huì )專(zhuān)門(mén)設立的動(dòng)物保護技術(shù)部門(mén)就已經(jīng)在和谷歌的云機器學(xué)習團隊緊密合作,他們在幫助我們開(kāi)發(fā)一種新的自動(dòng)化技術(shù)給圖像加上標注。我們感到非常興奮,這可以節省開(kāi)支、以更大的規模做應用部署,以及幫助我們更深地理解如何高效地保護全世界的野生動(dòng)物?!?/p>

如果你也對谷歌云 AutoML Vision 感到躍躍欲試,歡迎點(diǎn)擊這個(gè)鏈接發(fā)送申請試用。

谷歌云 AutoML Vision 是我們谷歌云團隊和谷歌大腦團隊以及其它谷歌 AI 團隊合作的共同成果,也是我們正在開(kāi)發(fā)的數個(gè)谷歌云 AutoML 產(chǎn)品中的第一個(gè)。雖然我們讓 AI 變得更觸手可及的旅途只是剛剛開(kāi)始,我們超過(guò)一萬(wàn)個(gè)用戶(hù)用谷歌云 AI 產(chǎn)品所能達成的成果已經(jīng)帶給了我們許多的激勵和靈感。我們希望谷歌云 AutoML 的發(fā)布可以幫助更多企業(yè)發(fā)現 AI 的種種可能性。

免責聲明:本站發(fā)布的內容(圖片、視頻和文字)以原創(chuàng )、來(lái)自本網(wǎng)站內容采集于網(wǎng)絡(luò )互聯(lián)網(wǎng)轉載等其它媒體和分享為主,內容觀(guān)點(diǎn)不代表本網(wǎng)站立場(chǎng),如侵犯了原作者的版權,請告知一經(jīng)查實(shí),將立刻刪除涉嫌侵權內容,聯(lián)系QQ:712375056。

亚洲AV永久无码精品天堂D1| 久久精品女人天堂AV麻| 欧美精品亚洲精品日韩专区| 55夜色66夜色国产精品视频| 高清国产亚洲精品自在久久| 国产aⅴ激情无码久久久无码|