• 如何快速安全地為電池充電,充電指南

    任何愛好者都可以快速為電池充電,但您能否在不發(fā)生爆炸、過熱或電池循環(huán)壽命大幅下降的情況下充電? 許多公司已經(jīng)管理通常使用專門算法的快速充電技術(shù)。這些算法考慮了電池的化學性質(zhì)和某種非標準充電率曲線。許多設(shè)備制造商和無線運營商現(xiàn)在為智能手機設(shè)備提供至少兩年的保修,將 800 次循環(huán)設(shè)置為電池的電池循環(huán)壽命。

  • 電池應(yīng)用:不要忽視不起眼的電池連接器

    我們經(jīng)常談?wù)摵蛽碾姵兀核鼈兊膲勖?、安全問題、充電/放電、溫度影響和許多其他問題,以至于很容易忘記電池供應(yīng)鏈中的一個重要環(huán)節(jié):連接器。過去一周發(fā)生的兩件事,一個在當前范圍的極低端,另一個在更高的范圍,提醒我,如果沒有牢固的連接,最好的電池也是無用的。

  • 新的可再生能源系統(tǒng),波浪能應(yīng)用技術(shù)

    在可再生能源系統(tǒng)方面,公司最近試圖利用三種主要能源:太陽、風和海浪。太陽能電池板現(xiàn)在幾乎無處不在。風力渦輪機裝置在陸地和海上變得越來越普遍。然而,我們還沒有看到太多的是波浪能。不過,新的能量浪潮可能是波浪能。 世界正在轉(zhuǎn)向可再生能源。不夠快——還沒有——但它正在發(fā)生。經(jīng)典的可再生能源是水電。如果到處建造巨大的水壩很容易逃脫,我們早就做到了。

  • 計算機視覺:通過壓縮技術(shù)減少 AI 推理所需的內(nèi)存大小

    今天,我們將討論計算機視覺。我們將聽到 Perceive 的首席執(zhí)行官 Steve Teig 談?wù)撍岢龅囊环N壓縮激活的方法,該方法可以減少 AI 推理所需的內(nèi)存大小。我們還將先睹為快,了解來自 GrAI Matter Labs 的新型神經(jīng)形態(tài)啟發(fā)式視覺芯片。

  • 車輛到車輛的通信和車輛到基礎(chǔ)設(shè)施的通信,使用V2X 技術(shù)來暢通交通流

    您經(jīng)常聽到我們談?wù)撊绾问褂梦覀兊能噷囃ㄐ呕?V2X 技術(shù)來暢通交通流,讓汽車相互交流,讓汽車與紅綠燈相通。因此,我們周圍的基礎(chǔ)設(shè)施如何以最佳方式進行管理。我們在漢堡所做的是,我們還展示了如何,例如,自行車騎手、電動滑板車司機如何被周圍的其他系統(tǒng)看到,以避免發(fā)生事故。

  • LF 能源和索尼計算機科學實驗室的名為 Hyphae 的項目,對未來能源的探索

    LF 能源和索尼計算機科學實驗室?guī)讉€月前宣布了一個名為 Hyphae 的項目,這是一個微電網(wǎng)計劃,旨在實現(xiàn)可再生能源的點對點分配自動化。這樣做的目標是讓微電網(wǎng)更高效,使整個電網(wǎng)更加碳中和,只是為了留在頁面上,在關(guān)于能源的同一頁面上。但這是你的項目之一。你能告訴我你在規(guī)劃的其他項目是什么嗎?未來我們最有可能看到開源微電網(wǎng)部署在哪里?

  • 能源在開源方面的未來,電力系統(tǒng)網(wǎng)絡(luò)未來的模型

    我們現(xiàn)在討論能源,特別是能源在開源方面的未來。為了減緩和阻止氣候變化,我們必須將排放量減少到零。為此,我們需要徹底改變我們的能源系統(tǒng),只生產(chǎn)可持續(xù)和可再生能源。我們還需要可持續(xù)且更可靠的電網(wǎng),能夠以最佳方式結(jié)合不同的可再生能源。

  • 什么是圖神經(jīng)網(wǎng)絡(luò)?未來如何發(fā)展?

    圖是一種數(shù)據(jù)結(jié)構(gòu),它對一組對象(節(jié)點)及其關(guān)系(邊)進行建模。近年來,由于圖結(jié)構(gòu)的強大表現(xiàn)力,用機器學習方法分析圖的研究越來越受到重視。圖神經(jīng)網(wǎng)絡(luò)(GNN)是一類基于深度學習的處理圖域信息的方法。由于其較好的性能和可解釋性,GNN最近已成為一種廣泛應(yīng)用的圖分析方法。

  • 循環(huán)神經(jīng)網(wǎng)絡(luò) RNN發(fā)展史概述

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)是一類以序列(sequence)數(shù)據(jù)為輸入,在序列的演進方向進行遞歸(recursion)且所有節(jié)點(循環(huán)單元)按鏈式連接的遞歸神經(jīng)網(wǎng)絡(luò)(recursive neural network)。對循環(huán)神經(jīng)網(wǎng)絡(luò)的研究始于二十世紀80-90年代,并在二十一世紀初發(fā)展為深度學習(deep learning)算法之一,其中雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(Bidirectional RNN, Bi-RNN)和長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory networks,LSTM)是常見的循環(huán)神經(jīng)網(wǎng)絡(luò)。

  • 什么是自編碼器?對機器學習有什么影響?

    AutoEncoder的基本思想是利用神經(jīng)網(wǎng)絡(luò)來做無監(jiān)督學習,就是把樣本的輸入同時作為神經(jīng)網(wǎng)絡(luò)的輸入和輸出。本質(zhì)上是希望學習到輸入樣本的表示(encoding)。早期AutoEncoder的研究主要是數(shù)據(jù)過于稀疏、數(shù)據(jù)高維導(dǎo)致計算復(fù)雜度高。比較早用神經(jīng)網(wǎng)絡(luò)做AutoEncoder的可以追溯到80年代的BPNN和MLP以及當時Hinton推崇的RBM。后來到了2000年以后還堅持在做的只剩下Hinton的RBM了。從2000年以后,隨著神經(jīng)網(wǎng)絡(luò)的快速興起,AutoEncoder也得到快速發(fā)展,基本上有幾條線:稀疏AutoEncoder、噪音容忍AutoEncoder、卷積AutoEncoder、變分AutoEncoder。最新的進展是結(jié)合對抗思想的對抗AutoEncoder。

  • 簡述卷積神經(jīng)網(wǎng)絡(luò)發(fā)展進程

    卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展,最早可以追溯到1962年,Hubel和Wiesel對貓大腦中的視覺系統(tǒng)的研究。1980年,一個日本科學家福島邦彥(Kunihiko Fukushima)提出了一個包含卷積層、池化層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。在這個基礎(chǔ)上,Yann Lecun將BP算法應(yīng)用到這個神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的訓練上,就形成了當代卷積神經(jīng)網(wǎng)絡(luò)的雛形。

  • 什么是深度學習

    深度學習是近10年機器學習領(lǐng)域發(fā)展最快的一個分支,由于其重要性,三位教授(Geoffrey Hinton、Yann Lecun、Yoshua Bengio)因此同獲圖靈獎。深度學習模型的發(fā)展可以追溯到1958年的感知機(Perceptron)。1943年神經(jīng)網(wǎng)絡(luò)就已經(jīng)出現(xiàn)雛形(源自NeuroScience),1958年研究認知的心理學家Frank發(fā)明了感知機,當時掀起一股熱潮。后來Marvin Minsky(人工智能大師)和Seymour Papert發(fā)現(xiàn)感知機的缺陷:不能處理異或回路等非線性問題,以及當時存在計算能力不足以處理大型神經(jīng)網(wǎng)絡(luò)的問題。于是整個神經(jīng)網(wǎng)絡(luò)的研究進入停滯期。

  • 可解釋性的標準是什么?

    有一些特定的標準可用于分類模型解釋方法。Christoph Molnar在2018年“可解釋的機器學習,制作黑箱模型可解釋指南”中提到了一個很好的指南。

  • 為什么需要可解釋性機器學習?

    在工業(yè)界中,數(shù)據(jù)科學或機器學習的主要焦點是更偏“應(yīng)用”地解決復(fù)雜的現(xiàn)實世界至關(guān)重要的問題,而不是理論上有效地應(yīng)用這些模型于正確的數(shù)據(jù)。機器學習模型本身由算法組成,該算法試圖從數(shù)據(jù)中學習潛在模式和關(guān)系,而無需硬編碼固定規(guī)則。因此,解釋模型如何對業(yè)務(wù)起作用總是會帶來一系列挑戰(zhàn)。有一些領(lǐng)域的行業(yè),特別是在保險或銀行等金融領(lǐng)域,數(shù)據(jù)科學家通常最終不得不使用更傳統(tǒng)的機器學習模型(線性或基于樹的)。原因是模型可解釋性對于企業(yè)解釋模型所采取的每個決策非常重要。

  • 什么是可解釋性機器學習

    可解釋性是指人類能夠理解決策原因的程度。機器學習模型的可解釋性越高,人們就越容易理解為什么做出某些決定或預(yù)測。模型可解釋性指對模型內(nèi)部機制的理解以及對模型結(jié)果的理解。其重要性體現(xiàn)在:建模階段,輔助開發(fā)人員理解模型,進行模型的對比選擇,必要時優(yōu)化調(diào)整模型;在投入運行階段,向業(yè)務(wù)方解釋模型的內(nèi)部機制,對模型結(jié)果進行解釋。比如基金推薦模型,需要解釋:為何為這個用戶推薦某支基金。

首頁  上一頁  1 2 3 4 5 6 7 8 9 10 下一頁 尾頁
發(fā)布文章