国产成人超清在线视频,国产高清永久免费,国产最新超碰97上传无码,超碰国产人人草人人爽

機(jī)器學(xué)習(xí)有哪些常用算法,性能怎么樣,有什么優(yōu)缺點(diǎn)?

學(xué)習(xí)
  • AIUST.Com
  • 2023-03-16 20:30

機(jī)器學(xué)習(xí)算法有很多種,根據(jù)學(xué)習(xí)方式的不同,可以分為監(jiān)督式學(xué)習(xí)、無(wú)監(jiān)督式學(xué)習(xí)、半監(jiān)督式學(xué)習(xí)和強(qiáng)化學(xué)習(xí)等。每種算法都有自己的原理、性能和應(yīng)用場(chǎng)景。常用的機(jī)器學(xué)習(xí)算法,例如:

一、k-鄰近算法(kNN)

這是一種基于實(shí)例的分類(lèi)算法,它根據(jù)給定樣本的最近的k個(gè)鄰居的類(lèi)別來(lái)預(yù)測(cè)其類(lèi)別。它適用于小規(guī)模數(shù)據(jù)集和非線性分類(lèi)問(wèn)題。

k-鄰近算法的公式是這樣的:給定一個(gè)訓(xùn)練數(shù)據(jù)集 \(T = {(x_i,y_i),?,(x_n,y_n)}\) ,其中 \(x_i\) 是特征向量,\(y_i\) 是類(lèi)別標(biāo)簽,對(duì)于新的輸入實(shí)例 x ,在訓(xùn)練集中找到與之距離最近的 k 個(gè)實(shí)例\(N k (x)\) ,然后根據(jù)這 k 個(gè)實(shí)例的類(lèi)別標(biāo)簽進(jìn)行投票或加權(quán),得到 x 的預(yù)測(cè)類(lèi)別。

KNN算法的公式:

1、計(jì)算歐氏距離公式: 歐氏距離公式可以表示為:

\(d(x_i,x_j) = \sqrt{\sum_{n=1}^{N}(x_i^{(n)} - x_j^{(n)})^2}\) 

其中,\(x_i\) 和\(x_j\) 分別代表兩個(gè)樣本,N代表樣本特征數(shù)。

2、KNN算法的分類(lèi)決策規(guī)則: KNN算法中通常使用簡(jiǎn)單投票法來(lái)進(jìn)行分類(lèi)決策,即根據(jù)K個(gè)最近鄰樣本的標(biāo)簽進(jìn)行統(tǒng)計(jì),將出現(xiàn)次數(shù)最多的標(biāo)簽作為待分類(lèi)樣本的標(biāo)簽。

\(\hat{y} = \underset{y_i}{\operatorname{argmax}} \sum_{j \in \Omega_k}I(y_j = y_i)\)

其中,\(\Omega_k\)代表距離待分類(lèi)樣本最近的K個(gè)樣本組成的集合,\(I(\cdot)\)是指示函數(shù),\(y_i\)表示第\(i\)個(gè)類(lèi)別標(biāo)簽。

k-鄰近算法的性能分析:

時(shí)間復(fù)雜度:k-鄰近算法需要計(jì)算輸入實(shí)例與所有訓(xùn)練數(shù)據(jù)集中的實(shí)例之間的距離,然后進(jìn)行排序和投票或加權(quán),所以時(shí)間復(fù)雜度為\(O(mnd + mk)\),其中 m 是訓(xùn)練數(shù)據(jù)集的大小,n 是特征向量的維度,d 是距離度量函數(shù)的時(shí)間復(fù)雜度,k 是鄰居數(shù)目??梢钥闯?,當(dāng)訓(xùn)練數(shù)據(jù)集很大或者特征向量很高維時(shí),k-鄰近算法會(huì)非常耗時(shí)。

空間復(fù)雜度:k-鄰近算法需要存儲(chǔ)整個(gè)訓(xùn)練數(shù)據(jù)集和輸入實(shí)例,所以空間復(fù)雜度為\(O(mn)\)。可以看出,當(dāng)訓(xùn)練數(shù)據(jù)集很大或者特征向量很高維時(shí),k-鄰近算法會(huì)占用較多內(nèi)存。

準(zhǔn)確率:k-鄰近算法的準(zhǔn)確率受到多個(gè)因素的影響,例如距離度量函數(shù)、鄰居數(shù)目 k 、投票或加權(quán)方式等。一般來(lái)說(shuō),在相同條件下,較小的 k 值會(huì)使得模型更復(fù)雜、更容易過(guò)擬合、更不穩(wěn)定;較大的 k 值會(huì)使得模型更簡(jiǎn)單、更容易欠擬合、更平滑。因此,在實(shí)際應(yīng)用中需要通過(guò)交叉驗(yàn)證等方法來(lái)選擇合適的 k 值。

二、決策樹(shù)(DT)

決策樹(shù)(Decision Tree)是一種基于樹(shù)結(jié)構(gòu)的分類(lèi)與回歸方法,它通過(guò)對(duì)樣本特征進(jìn)行遞歸劃分來(lái)實(shí)現(xiàn)對(duì)數(shù)據(jù)集的分類(lèi)。決策樹(shù)的每個(gè)非葉節(jié)點(diǎn)表示一個(gè)特征,每個(gè)葉節(jié)點(diǎn)表示一種分類(lèi)結(jié)果。決策樹(shù)的建立過(guò)程就是根據(jù)訓(xùn)練集構(gòu)建樹(shù)模型的過(guò)程,其中主要包括三個(gè)步驟:選擇劃分特征、確定劃分點(diǎn)和生成子節(jié)點(diǎn)。簡(jiǎn)而言之,這是一種基于樹(shù)結(jié)構(gòu)的分類(lèi)和回歸算法,它通過(guò)對(duì)特征進(jìn)行分裂和剪枝來(lái)構(gòu)建一棵決策樹(shù),并根據(jù)決策樹(shù)的路徑來(lái)預(yù)測(cè)樣本的類(lèi)別或數(shù)值3。它適用于大規(guī)模數(shù)據(jù)集和復(fù)雜特征組合問(wèn)題。

決策樹(shù)算法的基本原理是通過(guò)計(jì)算每個(gè)特征的信息增益或信息增益比來(lái)選擇最優(yōu)的劃分特征,然后對(duì)數(shù)據(jù)集按照該特征進(jìn)行劃分,重復(fù)這個(gè)過(guò)程直到所有樣本屬于同一類(lèi)別或者無(wú)法繼續(xù)劃分為止。決策樹(shù)分類(lèi)算法在每個(gè)節(jié)點(diǎn)處采用一定的規(guī)則對(duì)特征進(jìn)行劃分,并生成子節(jié)點(diǎn),直到葉子節(jié)點(diǎn)表示所有類(lèi)別。

決策樹(shù)算法的優(yōu)點(diǎn)包括:

1. 易于理解和解釋?zhuān)軌蜉敵鰶Q策過(guò)程;

2. 能夠處理離散和連續(xù)型數(shù)據(jù);

3. 可以處理具有多個(gè)輸出的問(wèn)題;

4. 對(duì)于缺失值和異常值具有容錯(cuò)性。

決策樹(shù)算法的缺點(diǎn)包括:

1. 容易產(chǎn)生過(guò)擬合,特別是在處理噪聲較多的數(shù)據(jù)時(shí);

2. 無(wú)法處理復(fù)雜的數(shù)據(jù)關(guān)系;

3. 對(duì)于某些類(lèi)別較少的數(shù)據(jù)集容易出現(xiàn)預(yù)測(cè)偏差。

決策樹(shù)算法的性能主要取決于以下因素:

1. 劃分選擇標(biāo)準(zhǔn):不同的劃分選擇標(biāo)準(zhǔn)會(huì)影響算法的性能和復(fù)雜度;

2. 樹(shù)的深度:過(guò)深的樹(shù)容易過(guò)擬合;

3. 訓(xùn)練集的數(shù)量和特征數(shù):訓(xùn)練集越大,決策樹(shù)算法的性能越好;

4. 數(shù)據(jù)質(zhì)量:數(shù)據(jù)質(zhì)量好的訓(xùn)練集能夠提高決策樹(shù)算法的性能;

5. 特征選擇:選擇具有較高信息增益的特征能夠提高決策樹(shù)算法的性能。

決策樹(shù)算法公式

決策樹(shù)算法的核心是根據(jù)訓(xùn)練數(shù)據(jù)構(gòu)建決策樹(shù)模型,其中需要用到以下幾個(gè)公式:

1、信息熵(Entropy)公式:

\(H(X)=-\sum_{i=1}^{n}p_{i}log_{2}(p_{i})\)

其中,\(X\)為樣本集合,\(p_{i}\)表示樣本屬于第\(i\)個(gè)類(lèi)別的概率。

2、條件熵(Conditional Entropy)公式:

\(H(Y|X)=\sum_{i=1}^{m}p_{i}H(Y|X=x_{i})\)

其中,\(Y\)表示目標(biāo)變量,\(X\)表示某個(gè)特征變量,\(x_{i}\)表示特征變量\(X\)的第\(i\)個(gè)取值,\(p_{i}\)表示特征變量\(X\)取\(x_{i}\)的概率。

3、信息增益(Information Gain)公式:

\(Gain(X)=H(Y)-H(Y|X)\)

其中,\(Y\)為目標(biāo)變量,\(X\)為特征變量,\(H(Y)\)表示樣本集合\(Y\)的信息熵,\(H(Y|X)\)表示在特征變量\(X\)的條件下,樣本集合\(Y\)的條件熵。

4、信息增益比(Gain Ratio)公式:

\(Gain_Ratio(X)=\frac{Gain(X)}{IV(X)}\)

其中,\(IV(X)\)為特征變量\(X\)的固有值(Intrinsic Value):

\(IV(X)=-\sum_{i=1}^{m}\frac{|D_{i}|}{|D|}log_{2}(\frac{|D_{i}|}{|D|})\)

其中,\(D\)為樣本集合,\(D_{i}\)表示特征變量\(X\)取值為\(x_{i}\)的樣本集合。

這些公式用于選擇最優(yōu)的劃分特征和確定決策樹(shù)節(jié)點(diǎn)的分類(lèi)結(jié)果。通過(guò)計(jì)算不同特征的信息增益或信息增益比,選擇最優(yōu)的特征進(jìn)行樣本劃分,構(gòu)建決策樹(shù)模型。

三、樸素貝葉斯(NB)

樸素貝葉斯算法是一種基于基于概率統(tǒng)計(jì)理論中的貝葉斯定理和特征條件獨(dú)立假設(shè)的分類(lèi)算法。該算法通過(guò)已知類(lèi)別的訓(xùn)練數(shù)據(jù)集學(xué)習(xí)先驗(yàn)概率和特征條件概率,然后根據(jù)貝葉斯定理計(jì)算后驗(yàn)概率,從而實(shí)現(xiàn)分類(lèi);并選擇最大概率對(duì)應(yīng)的類(lèi)別作為預(yù)測(cè)結(jié)果。它適用于中小規(guī)模數(shù)據(jù)集和文本分類(lèi)問(wèn)題。

具體來(lái)說(shuō),樸素貝葉斯算法的步驟如下:

1. 準(zhǔn)備訓(xùn)練數(shù)據(jù)集,其中每個(gè)樣本的特征和標(biāo)簽都已知。

2. 計(jì)算每個(gè)類(lèi)別的先驗(yàn)概率,即在所有樣本中該類(lèi)別的出現(xiàn)頻率。

3. 對(duì)于每個(gè)特征,計(jì)算在每個(gè)類(lèi)別下的條件概率,即該特征在該類(lèi)別下的出現(xiàn)頻率。

4. 根據(jù)貝葉斯定理,計(jì)算每個(gè)樣本屬于每個(gè)類(lèi)別的后驗(yàn)概率,并選擇概率最大的類(lèi)別作為分類(lèi)結(jié)果。

在樸素貝葉斯算法中,特征條件獨(dú)立假設(shè)是指假設(shè)每個(gè)特征對(duì)于分類(lèi)的影響是相互獨(dú)立的,即每個(gè)特征的出現(xiàn)概率都是獨(dú)立的。雖然這個(gè)假設(shè)在實(shí)際情況中可能并不成立,但樸素貝葉斯算法在許多實(shí)際問(wèn)題中表現(xiàn)出了很好的分類(lèi)性能。

樸素貝葉斯算法的公式如下:

給定樣本\(x=(x_1,x_2,\ldots,x_n)\),\(y\)為類(lèi)別變量,樸素貝葉斯算法的分類(lèi)公式為:

\(P(y|x) = \frac{P(x|y)P(y)}{P(x)} = \frac{P(y)\prod_{i=1}^nP(x_i|y)}{P(x)}\)

其中,\(P(y|x)\)為后驗(yàn)概率,表示給定樣本\(x\)后\(y\)的概率;\(P(x|y)\)為類(lèi)條件概率,表示在類(lèi)別\(y\)下樣本\(x\)出現(xiàn)的概率;\(P(y)\)為先驗(yàn)概率,表示在所有樣本中類(lèi)別\(y\)的出現(xiàn)頻率;\(P(x)\)為樣本\(x\)的邊緣概率,表示樣本\(x\)在所有類(lèi)別下出現(xiàn)的概率。

樸素貝葉斯算法的時(shí)間復(fù)雜度較低,為\(O(NM)\),其中\(zhòng)(N\)為樣本數(shù),\(M\)為特征數(shù)。由于該算法基于特征條件獨(dú)立假設(shè),因此需要很少的訓(xùn)練樣本就能學(xué)習(xí)分類(lèi)規(guī)則。

樸素貝葉斯算法優(yōu)缺點(diǎn):

優(yōu)點(diǎn):

1. 算法簡(jiǎn)單,實(shí)現(xiàn)容易。由于假設(shè)特征之間是條件獨(dú)立的,計(jì)算每個(gè)特征在每個(gè)類(lèi)別下的條件概率非常簡(jiǎn)單,因此算法的實(shí)現(xiàn)相對(duì)容易。

2. 在數(shù)據(jù)較少的情況下仍然有效。樸素貝葉斯算法需要估計(jì)先驗(yàn)概率和條件概率,但即使在數(shù)據(jù)較少的情況下,該算法仍然能夠給出相對(duì)合理的分類(lèi)結(jié)果。

3. 處理多分類(lèi)問(wèn)題的能力強(qiáng)。樸素貝葉斯算法在處理多分類(lèi)問(wèn)題時(shí)表現(xiàn)良好,而且可以很容易地?cái)U(kuò)展到更多類(lèi)別的情況。

缺點(diǎn):

1. 特征條件獨(dú)立假設(shè)往往不成立。樸素貝葉斯算法假設(shè)所有特征對(duì)分類(lèi)的影響是相互獨(dú)立的,但實(shí)際情況下這種假設(shè)往往不成立,因此可能會(huì)影響分類(lèi)的準(zhǔn)確性。

2. 對(duì)輸入數(shù)據(jù)的表達(dá)形式敏感。樸素貝葉斯算法假設(shè)輸入數(shù)據(jù)是由各個(gè)特征獨(dú)立組成的向量,因此如果輸入數(shù)據(jù)的表達(dá)形式與假設(shè)不符,可能會(huì)影響分類(lèi)的準(zhǔn)確性。

3. 需要足夠的樣本數(shù)據(jù)支持。樸素貝葉斯算法需要足夠的樣本數(shù)據(jù)進(jìn)行學(xué)習(xí),如果樣本數(shù)據(jù)太少,可能會(huì)導(dǎo)致分類(lèi)的不準(zhǔn)確性。

總的來(lái)說(shuō),樸素貝葉斯算法是一種簡(jiǎn)單有效的分類(lèi)算法,特別適用于數(shù)據(jù)集較小、分類(lèi)類(lèi)別較多的情況下。但是,在某些特定的應(yīng)用場(chǎng)景中,由于其假設(shè)的特征條件獨(dú)立性不一定成立,因此可能需要選擇其他更為適合的分類(lèi)算法。

四、邏輯回歸(LR)

邏輯回歸是一種經(jīng)典的分類(lèi)算法,這是一種基于線性回歸模型并引入sigmoid函數(shù)作為激活函數(shù)的二元分類(lèi)算法,用于預(yù)測(cè)二分類(lèi)問(wèn)題(例如“是”或“否”)的概率。它通過(guò)最大化對(duì)數(shù)似然函數(shù)來(lái)優(yōu)化模型參數(shù),其基本思想是將線性回歸模型的輸出通過(guò)邏輯函數(shù)(也稱(chēng)為Sigmoid函數(shù))進(jìn)行映射,將線性輸出映射到0到1之間作為概率輸出(從而可以被解釋為概率)。它適用于中大規(guī)模數(shù)據(jù)集和線性可分問(wèn)題。

邏輯回歸模型可以表示為:

\(h_{\theta}(x) = \frac{1}{1 + e^{-\theta^{T}x}}\)

其中,\(x\) 表示輸入特征向量,\(\theta\) 表示模型參數(shù)向量。

邏輯回歸的目標(biāo)是通過(guò)最小化損失函數(shù)來(lái)學(xué)習(xí)模型參數(shù),常見(jiàn)的損失函數(shù)是交叉熵?fù)p失函數(shù)。其表達(dá)式為:

\(J(\theta) = -\frac{1}{m}\sum_{i=1}^{m}[y^{(i)}\log h_{\theta}(x^{(i)}) + (1-y^{(i)})\log(1-h_{\theta}(x^{(i)}))]\)

其中,\(m\) 表示訓(xùn)練樣本數(shù)量,\(y^{(i)}\) 表示第 \(i\) 個(gè)樣本的真實(shí)標(biāo)簽,\(h_{\theta}(x^{(i)})\) 表示邏輯回歸模型對(duì)第 \(i\) 個(gè)樣本的預(yù)測(cè)結(jié)果。

邏輯回歸算法的時(shí)間復(fù)雜度通常是 \(O(kn)\),其中 \(k\) 表示特征的數(shù)量,\(n\) 表示樣本的數(shù)量??臻g復(fù)雜度為 \(O(k)\),即模型參數(shù)的數(shù)量。

邏輯回歸算法具有以下優(yōu)點(diǎn):

1. 訓(xùn)練速度快,模型簡(jiǎn)單易于實(shí)現(xiàn)。

2. 對(duì)于二分類(lèi)問(wèn)題,預(yù)測(cè)結(jié)果易于解釋?zhuān)梢暂敵龈怕手怠?/p>

但是,邏輯回歸算法也有一些缺點(diǎn):

1. 當(dāng)特征之間存在復(fù)雜的關(guān)聯(lián)關(guān)系時(shí),邏輯回歸模型表現(xiàn)可能不如其他復(fù)雜的分類(lèi)算法。

2. 在處理多分類(lèi)問(wèn)題時(shí),需要使用其他技術(shù)將邏輯回歸擴(kuò)展到多分類(lèi)問(wèn)題上。

3. 對(duì)于噪聲數(shù)據(jù)和異常值,邏輯回歸模型的魯棒性較差,需要對(duì)數(shù)據(jù)進(jìn)行預(yù)處理或使用其他的算法來(lái)處理這些問(wèn)題。

五、支持向量機(jī)(SVM)

支持向量機(jī)(Support Vector Machine,簡(jiǎn)稱(chēng)SVM)是一種常見(jiàn)的二分類(lèi)算法,這是一種基于間隔最大化原則和核技巧的分類(lèi)和回歸算法,它通過(guò)尋找一個(gè)超平面或者一個(gè)超曲面來(lái)劃分不同類(lèi)別的樣本,并利用核函數(shù)將低維空間映射到高維空間以解決非線性問(wèn)題。其基本思想是將數(shù)據(jù)點(diǎn)映射到高維空間中,找到能夠?qū)⒉煌?lèi)別的數(shù)據(jù)點(diǎn)分開(kāi)的最優(yōu)超平面。SVM的目標(biāo)是找到一個(gè)最大間隔超平面,使得該超平面能夠?qū)⒉煌?lèi)別的樣本分隔開(kāi)來(lái),同時(shí)能夠最大化間隔。它適用于中小規(guī)模數(shù)據(jù)集和高維特征問(wèn)題。

SVM的算法可以表示為:

\(\min_{w,b} \frac{1}{2}||w||^{2}\)

\(s.t.\ y_i(w^Tx_i+b) \geq 1, i=1,2,...,m\)

其中,\(x_i\) 是第\(i\) 個(gè)樣本的特征向量,\(y_i\) 是第 \(i\) 個(gè)樣本的類(lèi)別(取值為 \(-1\) 或 \(1\)),\(w\) 和 \(b\) 是模型參數(shù),\(m\) 是樣本數(shù)量。

SVM算法的時(shí)間復(fù)雜度通常是 \(O(n^2)\) 或 \(O(n^3)\),其中 \(n\) 表示訓(xùn)練樣本的數(shù)量??臻g復(fù)雜度通常是 \(O(n)\) 或 \(O(n^2)\),即模型參數(shù)和數(shù)據(jù)所占用的空間。

SVM算法具有以下優(yōu)點(diǎn):

1. SVM在高維空間中進(jìn)行分類(lèi),適用于特征維度較高的數(shù)據(jù)集。

2. SVM對(duì)于小樣本、非線性和高維數(shù)據(jù)集表現(xiàn)較好。

3. 通過(guò)使用不同的核函數(shù),可以靈活地處理非線性問(wèn)題。

但是,SVM算法也有一些缺點(diǎn):

1. 對(duì)于大規(guī)模的數(shù)據(jù)集,SVM的訓(xùn)練時(shí)間較長(zhǎng)。

2. SVM對(duì)于噪聲和異常值較為敏感。

3. SVM對(duì)于參數(shù)的選擇比較敏感,需要進(jìn)行調(diào)參。

六、隨機(jī)森林(RF)

隨機(jī)森林(Random Forest)是一種常見(jiàn)的集成學(xué)習(xí)算法,這是一種基于bagging思想和決策樹(shù)方法的集成學(xué)習(xí)算法,它通過(guò)從原始數(shù)據(jù)集中隨機(jī)抽取多個(gè)子數(shù)據(jù)集并在每個(gè)子數(shù)據(jù)集上訓(xùn)練一個(gè)決策樹(shù)模型,并將所有決策樹(shù)模型的預(yù)測(cè)結(jié)果進(jìn)行投票或平均來(lái)得到最終預(yù)測(cè)結(jié)果。其基本思想是通過(guò)集成多個(gè)決策樹(shù)的結(jié)果,來(lái)提高模型的準(zhǔn)確率和泛化能力。它適用于大規(guī)模數(shù)據(jù)集和多變量問(wèn)題。

隨機(jī)森林算法的主要步驟如下:

1. 從訓(xùn)練集中隨機(jī)采樣 \(m\) 個(gè)樣本,使用這些樣本構(gòu)建一個(gè)決策樹(shù)。

2. 重復(fù)上述步驟 \(n\) 次,得到 \(n\) 個(gè)決策樹(shù)。

3. 對(duì)于測(cè)試樣本,將其輸入到每個(gè)決策樹(shù)中,得到 \(n\) 個(gè)分類(lèi)結(jié)果。最終的分類(lèi)結(jié)果是所有決策樹(shù)中分類(lèi)結(jié)果的投票平均值。

隨機(jī)森林算法的公式表達(dá)如下: \(\hat{y} = \frac{1}{n}\sum_{i=1}^n f_i(x)\)

其中,\(\hat{y}\) 表示最終的分類(lèi)結(jié)果,\(n\) 表示決策樹(shù)的數(shù)量,\(f_i(x)\) 表示第 \(i\) 個(gè)決策樹(shù)對(duì)樣本 \(x\) 的分類(lèi)結(jié)果。

隨機(jī)森林算法的時(shí)間復(fù)雜度主要取決于決策樹(shù)的數(shù)量和深度。通常情況下,隨機(jī)森林的時(shí)間復(fù)雜度為 \(O(T\times m\times log^2(n))\),其中 \(T\) 表示決策樹(shù)的數(shù)量,\(m\) 表示樣本數(shù)量,\(n\) 表示特征數(shù)量??臻g復(fù)雜度也主要取決于決策樹(shù)的數(shù)量和深度,通常為 \(O(T\times m\times d)\),其中 \(d\) 表示決策樹(shù)的最大深度。

隨機(jī)森林算法具有以下優(yōu)點(diǎn):

1. 隨機(jī)森林可以很好地處理高維數(shù)據(jù)和大規(guī)模數(shù)據(jù)集。

2. 隨機(jī)森林可以避免過(guò)擬合,提高模型的泛化能力。

3. 隨機(jī)森林可以評(píng)估特征的重要性,從而幫助選擇最優(yōu)的特征集。

但是,隨機(jī)森林算法也有一些缺點(diǎn):

1. 隨機(jī)森林的模型比較復(fù)雜,不易解釋。

2. 隨機(jī)森林對(duì)于噪聲和異常值比較敏感。

3. 隨機(jī)森林需要進(jìn)行調(diào)參,包括樹(shù)的數(shù)量、樹(shù)的深度、樣本的數(shù)量等。

來(lái)源:AIUST.Com

作者:

編輯:leilei

圖片來(lái)源:

本文鏈接: http://givenhand.cn/article/20230316/1516.html

  • 機(jī)器學(xué)習(xí)
  • 算法
免責(zé)聲明:本網(wǎng)站出于傳播商業(yè)信息之目的進(jìn)行轉(zhuǎn)載發(fā)布,不代表 AIUST.Com 立場(chǎng)。本文所涉文、圖、音視頻等資料之一切權(quán)利和法律責(zé)任歸提供方所有和承擔(dān)。本網(wǎng)站對(duì)文中的圖文等所有信息的真實(shí)性不作任何保證或承諾,請(qǐng)讀者僅作參考,并自行核實(shí)相關(guān)內(nèi)容。本網(wǎng)站的任何內(nèi)容僅供參考,不能做為投資、采購(gòu)或行為決策依據(jù),據(jù)此操作者風(fēng)險(xiǎn)自擔(dān)。

相關(guān)文章

資訊

原創(chuàng)

薦讀

  • 5G+AR加持 晨星機(jī)器人掀起“智能化+人機(jī)交互”制造新趨勢(shì) 5G+AR加持 晨星機(jī)器人掀起“智能化+人機(jī)交互”制造新趨勢(shì)

    2021世界制造業(yè)大會(huì)于11月22日在合肥落下帷幕。為期四天的大會(huì)中,作為向世界展示智能制造全面能力的窗口,聯(lián)想展示了一系列讓人驚喜的創(chuàng)新產(chǎn)品?,F(xiàn)場(chǎng)展示的ThinkPad X1 Fold整體重量?jī)H有1公斤,折疊起來(lái)之后的厚度大約為24毫米。當(dāng)保持半開(kāi)狀態(tài)時(shí),可以像拿本書(shū)一樣握住,并且能同時(shí)運(yùn)行兩個(gè)應(yīng)用程序。使用固定在中間的鍵盤(pán)之后,瞬間變...

  • 智能手機(jī)競(jìng)爭(zhēng)中失敗,日本在聯(lián)網(wǎng)汽車(chē)領(lǐng)域舉步維艱 智能手機(jī)競(jìng)爭(zhēng)中失敗,日本在聯(lián)網(wǎng)汽車(chē)領(lǐng)域舉步維艱

    據(jù)外媒報(bào)道,在制造帶有數(shù)字聯(lián)網(wǎng)服務(wù)的汽車(chē)的競(jìng)爭(zhēng)中,豐田汽車(chē)和日產(chǎn)汽車(chē)面臨著被本土市場(chǎng)拖累的風(fēng)險(xiǎn)。與美國(guó)和歐洲的汽車(chē)消費(fèi)者不同的是,日本消費(fèi)者不愿意為這些聯(lián)網(wǎng)功能和服務(wù)買(mǎi)單。結(jié)果就是:日本只有10%的汽車(chē)...

  • 2020年河南省將推廣應(yīng)用3萬(wàn)臺(tái)工業(yè)機(jī)器人 2020年河南省將推廣應(yīng)用3萬(wàn)臺(tái)工業(yè)機(jī)器人

    到2020年,推廣應(yīng)用3萬(wàn)臺(tái)工業(yè)機(jī)器人,建設(shè)1000條智能生產(chǎn)線、300個(gè)智能車(chē)間、150個(gè)智能工廠……4月16日,在2018兩岸智能裝備制造鄭州論壇上,河南省工信委發(fā)布了《2017年河南省智能制造白皮書(shū)》,河南智能制造的2020...

熱門(mén)標(biāo)簽