"線形回帰"の翻訳 英語に:
辞書 日本-英語
例 (レビューされていない外部ソース)
線形回帰は実際に | In this particular example, it |
線形回帰の別の問題は | Clearly a linear regression model is a very poor one to explain this data over here. |
ここに 通常の線形回帰 | Let's look at some examples. |
これが線形回帰のアルゴリズムだ | So, this term here. |
既に線形回帰もあるし | So why do we need yet another learning algorithm? |
だけど 線形回帰の場合の | You know, you can end up here or here. |
もともとの線形回帰では | In the original version of |
だが線形回帰を使うと 推論は | Y is either zero or one, but if you are using |
簡単な線形代数の復習をする 線形代数は線形回帰に便利なだけでなく | And I'll quickly review the linear algebra you need in order to implement and use the more powerful versions of linear regression. |
北回帰線 | Tropic of Cancer |
南回帰線 | Tropic of Capricorn |
学習アルゴリズム 線形回帰アルゴリズムが構築できます | And taking gradient descent, and the square cost function, and putting them together. That will give us our first |
比較的にシンプルな線形回帰の問題でした | There is really no residual error over here. |
多変量の線形回帰とも 呼ばれている | And, just to give this another name, this is also called multivariate linear regression. |
これは線形回帰より複雑なモデルで fをxの線形関数とすると | For such situations there is a model called logistic regression, which uses a slightly more complicated model than linear regression, which goes as follows . |
元通りの線形回帰の目的関数に戻します | linear regression. |
線形回帰は 直線をデータにフィットするように 変更してしまった | But somehow adding that example out there caused linear regression to change in straight line fit to the data from this magenta line out here to this blue line over here, and caused it to give us a worse hypothesis. |
線形回帰で フィッティングしたとする だがオーバーフィットを防ぐ為に | Suppose we fit a linear regression model with a very high order polynomial, but to prevent overfitting, we are going to use regularization as shown here. |
特に 勾配降下法 Gradient Descent を複数フィーチャーの線形回帰に | In this video, let's talk about how to fit the parameters of that hypothesis. |
線形回帰Lは正解データから線形関数を引き それを2乗したものの和です | Thrun It's interesting to see how to minimize a loss function using gradient descent. |
これは残差がある場合の線形回帰の一例です | Now we plug in W1 0.9 4 x 20 equals 0.5. |
このロジスティック回帰の式と 線形関数fが与えられた時 | So here's a quick quiz for you. |
ここまでの所 線形の関係を見せてきました この回帰直線は | First what I'd like to show you is just, what do I mean by linear and nonlinear. |
複数フィーチャーの線形回帰の 動く実装を得る事になるよ | But if you implement the algorithm written up here then you have a working implementation of linear regression with multiple features. |
線形回帰においてはこの関数は特定の形 w₁ x w₀という形をしています | Once again, we're looking for function f that maps our vector x into y. |
この直線がデータの回帰直線です | The line of 25.2 0.67x y. |
そうですね これは線形回帰の目的関数でした さて | That minimizes J of theta one. |
この追加のトレーニングの標本を 足す前の例では 線形回帰は | In the first instance, in the first example before I added this extra training example, previously linear regression was just getting lucky and it got us a hypothesis that, you know, worked well for that particular example, but usually apply |
今回の小テストでは2つの未知パラメータ w₀とw₁からなる線形回帰の問題です | Let's for now just consider the one dimensional case. |
後のビデオで このアルゴリズムを使って それを特に線形回帰で使った | So in this video, I'm going to talk about gradient descent for minimizing some arbitrary function J. And then in |
外れ値が線形の傾きを大きくしてしまうからです 線形回帰では外れ値が厄介なのです | Because if you are minimizing quadratic error, outliers penalize you over proportionately. |
実際の所 近年は 回帰線は | They move they go up, they go down. |
より効率的な線形回帰の実装 が可能になります そして クラスで | So, using a vectorized implementation, you should be able to get a much more efficient implementation of linear regression. |
線形関数を用いた回帰について ここでも考察してきました | Now, there are many different ways to apply linear functions in machine learning. |
データから直線を引く方法を線形回帰と言います ここに2次元のデータがあります | So let's dive straight in so let's talk about lines and let's talk about the technology to fit lines to data called linear regression. |
回帰において 1万 あるいは 10 万 もの特徴を使うことがあります しかし ベクトル式化された線形回帰 | So, sometimes we use linear regression with tens or hundreds thousands of features, but if you use the vectorized implementation of linear regression, usually that will run much faster than if you had say your old for loop that was you know, updating theta 0 then theta 1 then theta 2 yourself. |
適用しよう とすると たくさんの非線形のフィーチャーに対して ロジスティック回帰を | If you want to apply logistic regression to this problem, one thing you could do is apply |
したがって正解は0.25と1です これで直線が理解できました 次は線形回帰です | Therefore, 4b 1 and then we divided by 4, which means b equals to fourth or quarter and 0.25 and 1 other correct answers here. |
点と回帰直線の距離を見ると | And words, it just means. |
より強力な線形回帰の 形式を開発する事が出来る それはもっとたくさんのデータを | We'll be able in the next few videos to develop more powerful forms of linear regression that can view of a lot more data, a lot more features, a lot more training examples and later on after the new regression we'll actually continue using these linear algebra tools to derive more powerful learning algorithims as well |
この例は 実は変数が一つの場合の線形回帰で その変数は x です | Let me also give this particular model a name. |
そしてもしこれを実装すれば それは多変量の線形回帰に対する | I've drawn the blue box around. |
線形 | liter |
線形 | linear |
線形 | lightyears |
関連検索 : 線形回帰直線 - 線形回帰式 - 線形重回帰 - ステップワイズ線形回帰 - 線形回帰モデル - 非線形回帰 - 回帰線 - 多重線形回帰 - 単純な線形回帰 - 直線回帰 - 回帰曲線 - 北回帰線 - 南回帰線