"部分最小二乗"の翻訳 英語に:


  辞書 日本-英語

部分最小二乗 - 翻訳 :

  例 (レビューされていない外部ソース)

普通の最小二乗法が我々が最初にとるアプローチです
Then we'll talk about the idea of estimation of regression coefficients.
そしてその結果 残差の二乗和を得る そしてこの最小二乗法では
Just like the sum of square, sum of deviation squares. So we'll square them.
最初の二人は 全部分かった
Yeah, well, for the first two, we have names, addresses...
シグマの二乗 サンプルの分散はSDの二乗
Again, there's variance in the population, sigma squared.
その数値を最小化する訳です 残差の二乗和を
And that would give us the sum of squared residuals.
分母には Xの二乗和とYの二乗和
Look what's in the numerator, sum of cross products.
最小化したい だから残差の二乗和を最小化したい 単回帰の時みたいに
So, we wanna minimize the difference between the observed scores on Y and predicted scores on Y, predicted by the model.
そして最小二乗法とはなんなのかを理解する事
X and Y, we are still assuming that X and Y are both continuous, both normal and there's a linear association between them and we will move beyond those assumptions
分散 シグマ二乗は 0.5の二乗 つまり 0.25となる
So the standard deviation is one half and the variance sigma squared would therefore be the square of 0.5 would be 0.25.
するとこの場合 最小化問題は 10掛ける (u 5)の二乗
Now if I want to take this objective function and multiply it by 10, so here my minimization problem is minimum of u of 10, u minus 5 squared plus 10.
トレーニング手本xiとの二乗距離が 最小になるクラスタ重心を選びとった物と考える事が出来る だがもちろん 距離の二乗を最小化しようと
So we think of Ci as picking the cluster centroid with the smallest squared distance to my training example Xi.
ここが最小二乗法の考えが登場する所です そのアイデアはとてもシンプル
How does R, or how if we want to calculat e this by hand, how do we come up with these estimates?
2つのピースに分解出来る モデルの二乗和と残差の二乗和です
So if I look at my outcome measure Y, I can sort of parse the variants into two pieces.
AB 59の二乗 OK そして最後は 観客
59 squared, OK, and finally?
三分の一は二分の一より小さい
One third is less than one half.
2X二乗
2x squared.
最高の部分だ
The king's trip. Best cut there is.
小麦の皮は パンの成分のなかで 最も栄養のある部分です
With whole grain bread, you have other obstacles.
1つだけ線形から外れています 二乗誤差を最小化しようとすると
This is an interesting one where we seem to have a linear relationship that is flatter than the linear regression indicates, but there is one outlier.
そこで まず最初に x 二乗 それから
So let me just graph those.
発音 日本語の発音の最小部分は音節で 子音 母音
three minutes japanese sounds
この小さな部分はその部分に等しいです
So, we just know that look this side is equal to that side
2X二乗と
We only have 1x squared terms, so let's write that down.
5の階乗はこの部分です
We'll write out the words Welcome to. We'll show Steven in bold.
虚数部分の2乗を加えて
You could say, well, this is just going to be equal to take the real part squared.
二番目の部分 これをクロスバリデーションセットと
CV, and the second piece of this data, I'm going to call the cross validation set
脳みその小さな部分が
It's getting blunter and blunter.
距離を最小化しようと 同じciの値になるはず でも普通は二乗をつける
But of course minimizing squared distance, and minimizing distance that should give you the same value of Ci, but we usually put in the square there, just as the convention that people use for K means.
見て分かるのは 残差の二乗和は
This is actually in my terminology one to three, but it just lists one two in this output.
最初の 異なる部分
First Delta
最後の 異なる部分
Last Delta
最初のロープの部分は
That's the second length of rope.
この最初の部分は
So let's see if they do that here.
X二乗の項をやりましょう 4x二乗と
OK, now we can simplify.
二乗して 足して それが二乗の和です
Lynn example.
16t二乗 10t 84
I swapped the sides.
37の二乗 OK
Arthur Benjamin
23の二乗 OK
AB 23 squared, OK. Audience
相同部分で 乗換えが起こること 乗換えは
When I say organized, it crosses over at a homologous point.
私は二分の差で列車に乗り遅れた
I missed the train by two minutes.
二ヶ月間自分の船に乗っていない
I'm gonna have time to live like a human being.
小さい部分の我々 はまだ小顎症と一部の 3 分の 1 を保持できます
For a tall part, we can hold the recommended one third length with a taller jaw
以下のような最適化問題があるとする 実数のuを (u 5)の二乗 1を 最小化するように選ぶ
Here is what I mean, to give you a concrete example, suppose I had a minimization problem that you know minimize over a real number u of u minus 5 squared, plus 1, right.
まだ残っているのは メートルの二乗 秒の二乗
So we put in one density.
2と1を使って最終的な二つの部分的な積を計算できる
So again, 3 times 8 is 4, carry the 2, and so on.

 

関連検索 : 最小二乗 - 最小二乗法 - 最小二乗解 - 最小二乗法 - 最小二乗フィット - 最小二乗法 - 最小二乗フィット - フィッティング最小二乗 - 最小二乗アルゴリズム - 最小二乗で - 二段階最小二乗 - 最小二乗線形 - 最小二乗平均 - 最小二乗回帰