"非線形回帰"の翻訳 英語に:


  辞書 日本-英語

非線形回帰 - 翻訳 :

  例 (レビューされていない外部ソース)

線形回帰は実際に
In this particular example, it
線形回帰の別の問題は
Clearly a linear regression model is a very poor one to explain this data over here.
ここに 通常の線形回帰
Let's look at some examples.
これが線形回帰のアルゴリズムだ
So, this term here.
既に線形回帰もあるし
So why do we need yet another learning algorithm?
だけど 線形回帰の場合の
You know, you can end up here or here.
もともとの線形回帰では
In the original version of
非線形です 他の非線形の例は
Because I squared, I multiplied the second derivative of y with respect I multiplied it times itself.
だが線形回帰を使うと 推論は
Y is either zero or one, but if you are using
簡単な線形代数の復習をする 線形代数は線形回帰に便利なだけでなく
And I'll quickly review the linear algebra you need in order to implement and use the more powerful versions of linear regression.
北回帰線
Tropic of Cancer
南回帰線
Tropic of Capricorn
学習アルゴリズム 線形回帰アルゴリズムが構築できます
And taking gradient descent, and the square cost function, and putting them together. That will give us our first
適用しよう とすると たくさんの非線形のフィーチャーに対して ロジスティック回帰を
If you want to apply logistic regression to this problem, one thing you could do is apply
これは線形ですか非線形ですか
If pixels are negative, we just ignore the negative sign and map back to the absolute value.
比較的にシンプルな線形回帰の問題でした
There is really no residual error over here.
多変量の線形回帰とも 呼ばれている
And, just to give this another name, this is also called multivariate linear regression.
これは線形回帰より複雑なモデルで fをxの線形関数とすると
For such situations there is a model called logistic regression, which uses a slightly more complicated model than linear regression, which goes as follows .
非線形方程式は
No? Nonlinear equations?
このカーネルは線形ですか非線形ですか
How about our Gaussian kernel that we discussed in class of size 5 by 5?
線形か非線形かチェックをつけてください
First is our gradient kernel here minus 1, 1.
元通りの線形回帰の目的関数に戻します
linear regression.
非暗号化回線で
I detected this audio transmission
線形回帰は 直線をデータにフィットするように 変更してしまった
But somehow adding that example out there caused linear regression to change in straight line fit to the data from this magenta line out here to this blue line over here, and caused it to give us a worse hypothesis.
線形回帰で フィッティングしたとする だがオーバーフィットを防ぐ為に
Suppose we fit a linear regression model with a very high order polynomial, but to prevent overfitting, we are going to use regularization as shown here.
特に 勾配降下法 Gradient Descent を複数フィーチャーの線形回帰に
In this video, let's talk about how to fit the parameters of that hypothesis.
線形回帰Lは正解データから線形関数を引き それを2乗したものの和です
Thrun It's interesting to see how to minimize a loss function using gradient descent.
ここで この関数は 線形ですか 非線形ですか
These are the x values, these are y values.
これは残差がある場合の線形回帰の一例です
Now we plug in W1 0.9 4 x 20 equals 0.5.
このロジスティック回帰の式と 線形関数fが与えられた時
So here's a quick quiz for you.
線形か非線形か見てみましょう 線形の場合は すべての関数と
Now the second thing we have to figure out is this linear or is this a non linear differential equation?
ここまでの所 線形の関係を見せてきました この回帰直線は
First what I'd like to show you is just, what do I mean by linear and nonlinear.
複数フィーチャーの線形回帰の 動く実装を得る事になるよ
But if you implement the algorithm written up here then you have a working implementation of linear regression with multiple features.
線形回帰においてはこの関数は特定の形 w₁ x w₀という形をしています
Once again, we're looking for function f that maps our vector x into y.
どうして非線形の仮説が
And hopefully it will recognize that that is a car.
この直線がデータの回帰直線です
The line of 25.2 0.67x y.
そうですね これは線形回帰の目的関数でした さて
That minimizes J of theta one.
この追加のトレーニングの標本を 足す前の例では 線形回帰は
In the first instance, in the first example before I added this extra training example, previously linear regression was just getting lucky and it got us a hypothesis that, you know, worked well for that particular example, but usually apply
今回の小テストでは2つの未知パラメータ w₀とw₁からなる線形回帰の問題です
Let's for now just consider the one dimensional case.
後のビデオで このアルゴリズムを使って それを特に線形回帰で使った
So in this video, I'm going to talk about gradient descent for minimizing some arbitrary function J. And then in
外れ値が線形の傾きを大きくしてしまうからです 線形回帰では外れ値が厄介なのです
Because if you are minimizing quadratic error, outliers penalize you over proportionately.
実際の所 近年は 回帰線は
They move they go up, they go down.
この微分方程式の次数は何ですか そして 線形か非線形かで
You have your order, so what is the order of my differential equation?
より効率的な線形回帰の実装 が可能になります そして クラスで
So, using a vectorized implementation, you should be able to get a much more efficient implementation of linear regression.
線形関数を用いた回帰について ここでも考察してきました
Now, there are many different ways to apply linear functions in machine learning.

 

関連検索 : 線形回帰 - 線形回帰 - 線形回帰直線 - 線形回帰式 - 線形重回帰 - ステップワイズ線形回帰 - 線形回帰モデル - 回帰線 - 多重線形回帰 - 単純な線形回帰 - 非線形 - 直線回帰 - 回帰曲線 - 北回帰線