張量的概念由 G.Ricci 于19世紀末提出的,起初研究的目的是為了在坐标不變換的情況下表達物體的幾何性質和物理規律之間的關系形式,比如“水珠在各個點的壓強矢量”。而在當時的科學環境下,标量和矢量都無法解釋這一關系。因此張量的概念應運而生。
張量是一個多維數組,其坐标是|n|維空間内,有|n|個分量的一種量,其中每個分量都是坐标的函數,在坐标變換時,這些分量也依照某些規則作線性變換。r 稱為該張量的秩或階。在同構的意義下,第零階張量(r = 0)為标量,第一階張量(r = 1)為向量,第二階張量(r = 2)則成為矩陣。例如,對于3維空間,r=1時的張量為此向量:(x,y,z)。由于變換方式的不同,張量分成協變張量、逆變張量、混合張量三類。張量是向量的推廣,原則上張量可以存儲物理世界的所有關系。
随着計算機技術的發展,企業、行業累積了大量關聯數據,發展出了高維度數據,例如數字圖像、生産時間序列等等。傳統的存儲計算模型采用向量模式,例如将n1*n2的圖像按照行與列存儲,當做線性映射時,這些數據被降低到低維子空間時(往往做笛卡爾積)極易引發維度災難。而基于張量的存儲,可利用其特有的張量分解、張量逼近技術實現數據降維。
TensorFlow是谷歌研發的第二代人工智能學習開源軟件庫。其中Tensor即代表張量,Flow表示基于數據流圖的計算。在TensorFlow中客觀實體表示為流圖中的節點,節點間的相互聯系表示為流圖中的線,這些線用多維數組即張量予以表示。在計算時對張量處理提供了良好的支持。此外TensorFlow良好的通用性易于開展基于分布式、内存計算的機器學習算法、深度神經網絡研究。它靈活的架構讓你可以在多種平台上展開計算,TensorFlow一大亮點是支持異構設備分布式計算,它能夠在各個平台上自動運行模型,從手機、單個CPU / GPU到成百上千GPU卡組成的分布式系統。開源深度學習系統TensorFlow在很多地方可以應用,如語音識别,自然語言理解,計算機視覺,廣告等等。TensorFlow會大大降低深度學習在各個行業中的應用難度。
,
更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!