Translation of "linear regression line" to Japanese language:


  Dictionary English-Japanese

Line - translation : Linear - translation : Linear regression line - translation : Regression - translation :

  Examples (External sources, not reviewed)

linear regression.
元通りの線形回帰の目的関数に戻します
linear regression for fitting a straight line to our data.
これは前回のビデオで
This line over here is linear regression to the data.
図で見ると直線はこのようになります
So, that's linear regression.
ビデオでは このモデルをどのように実装していくかをお話します
linear regression for classification problems.
ここに もう一つ
Then linear regression tries to fit a line that best describes the data.
それではどのように直線を引くのでしょうか
So, here's our linear regression algorithm.
最初の方のこの項は
linear regression isn't a good idea .
次のビデオでは
So linear regression works well if the data is approximately linear, but there are many examples when linear regression performs poorly.
必ずしもうまくいくわけではありません これはデータが非線形な曲線に並んでいる例です
So that's linear regression with gradient descent.
もしあなたが上級線形代数のコースを
And thus, using linear regression this way.
この点より右にある全ての点は
Linear regression? Do we compute confidence intervals?
あるいは最尤推測値の計算でしょうか
So outliers are particularly bad for linear regression.
データを見れば分かる通り これは線形とは異なる現象を示しています
Our first learning algorithm will be linear regression.
そのモデルがどのようなもので さらに重要なのは 総合的に
You now know about linear regression and gradient descent.
ここから次は これらのアイデアの いくつかの重要な拡張を伝授する予定だ
And let's say you've implement and regularize linear regression.
かくしてコスト関数Jを最小化した
This model is called linear regression or this, for example, is actually linear regression with one variable, with the variable being x.
全ての価格を一つの変数 x で予測するものです そして
Thrun In this question I quiz you about linear regression.
次のようなデータが与えられている場合
Right? This was our objective function for the linear regression.
この曲線を見ると J(theta 1) を最小化する値は 見ての通り theta 1 1 です
line intercept plus slope, and that's simple regression.
今ここでやるのは さらに好きなだけ予測変数を追加する事です
We already have linear regression and we have logistic regression, so why do we need, you know, neural networks?
ロジスティック回帰もある では何故 ニューラルネットワークなんて物が必要なんだ ニューラルネットワークの議論を
Are there closed form solutions of the type we found for linear regression?
それとも反復方法しかないのでしょうか
So this is going to be my overall objective function for linear regression.
目的関数です そしてこれを少し書き直してもっときれいにするために
Up to this point, I've just been showing you linear relationships, this regression
散布図の点の中を通っています しかし
The minimizing of loss is used for linear regression of a new regression problem, and you can write it as follows
回帰問題の答えw は 可能性のあるベクトルwの中で
That's our gradient descent algorithm, which should be familiar, and you see the linear linear regression model with our linear hypothesis and our squared error cost function.
もはやお馴染みとなっただろう そしてあなたは 線形回帰のモデルと 線形の仮説 そして二乗誤差のコスト関数も分かってるはず
To define linear regression, we need to understand what we are trying to minimize.
何を最小化するのか理解しましょう 損失関数 と呼ばれているものです
And this seems a pretty bad thing for linear regression to have done, right?
極めて不都合という事に思える でしょ 何故なら これらは我らの陽性な標本で
And, just to give this another name, this is also called multivariate linear regression.
多変量の線形回帰とも 呼ばれている
But once we've added that extra example out here, if you now run linear regression, you instead get a straight line fit to the data.
もうひとつの例を追加するとすると そして線形回帰をもう一度実行すると そのデータにフィットした直線が得られる
And I'll quickly review the linear algebra you need in order to implement and use the more powerful versions of linear regression.
簡単な線形代数の復習をする 線形代数は線形回帰に便利なだけでなく
Right? Doesn't mean that they are right on the regression line.
もっと正確に言いましょう
It doesn't mean that everyone is right on the regression line.
相関係数が1.0で無い限り だから相関について考える時はそれを忘れないで下さい
And you can see the regression line in the scatter plot.
負だ でもとってもちょっと そんなに急な傾きじゃない
We can calculate it, for. A slope, of a regression line.
私は回帰係数のBの標準誤差を
Here's a usual hypothesis of linear regression and if you want to compute H of
の仮説があります h(x) を計算したい場合は お気づきのように右辺では合計を行うことになります
So, applying linear regression to a classification problem usually isn't, often isn't a great idea.
線形回帰を適用するのは 多くの場合は 良い考えではない 最初のケースでは
They seem to line up a little bit in linear fashion.
明らかに形は右上がりでy軸が現在の体重ですが
For such situations there is a model called logistic regression, which uses a slightly more complicated model than linear regression, which goes as follows .
これは線形回帰より複雑なモデルで fをxの線形関数とすると
But somehow adding that example out there caused linear regression to change in straight line fit to the data from this magenta line out here to this blue line over here, and caused it to give us a worse hypothesis.
線形回帰は 直線をデータにフィットするように 変更してしまった
In linear regression, the function has a particular form which is W1 times X plus W0.
この場合はxは一次元つまりN 1です
Clearly a linear regression model is a very poor one to explain this data over here.
線形回帰の別の問題は
In particular let's talk about how to use gradient descent for linear regression with multiple features.
どう使うかを議論していきたい 我らのノーテーションを簡単に要約すると これが複数変数における線形回帰
For linear regression, we compute the quotation B and A, and I give you the formulas
公式をここに書きます bは以前説明したとおりこれらの項を
In linear regression, we are given data and data has still has more than one dimension.
このコースでは2次元のデータを扱ってきました

 

Related searches : Linear Regression - Regression Line - Linear Regression Equation - A Linear Regression - Linear Multiple Regression - Stepwise Linear Regression - Multiple Linear Regression - Linear Regression Model - Simple Linear Regression - Non-linear Regression - Linear Regression For - Linear Line - Linear Time Line