"多変量ロジスティック回帰"の翻訳 英語に:
辞書 日本-英語
多変量ロジスティック回帰 - 翻訳 :
例 (レビューされていない外部ソース)
ナイーブベイズ k近傍法 サポートベクターマシン ロジスティック回帰 | Which of these would be a good algorithm or technique for doing this classification into things like people, places, and drugs. |
多変量の線形回帰とも 呼ばれている | And, just to give this another name, this is also called multivariate linear regression. |
ロジスティック回帰やニューラルネットワークと比べて サポートベクターマシーン | And that's called the support vector machine, and compared to both the logistic regression and neural networks, the |
ロジスティック回帰で使っていたコスト関数に | I just drew in magenta. The curve that I just drew purple and magenta. |
これはロジスティック回帰の コスト関数 Jのシータだ | Armed with these definitions, we are now ready to build the support vector machine. |
ロジスティック回帰のアルゴリズムの 詳細を見ていきます | In the next video we'll start working out the details of the logistic regression algorithm. |
対応する値は ロジスティック回帰の時同様 除く | Except that we don't sum over the terms corresponding to these bias values |
これは普段ロジスティック回帰に使っているのと | And it will compute the test error as follows. |
代わりに例えばロジスティック回帰を使っていた場合はどうだろう その場合でも ロジスティック回帰でのトレーニングとテストの | How about if we were doing a classification problem and say using logistic regression instead. |
ロジスティック回帰の語源でもある ところで sigmod関数と | And the term logistic function, that's what give rise to the name logistic progression. |
またはセーフティーマージンを サポートベクターマシンに組み込むと言える ロジスティック回帰も | And so this builds in an extra safety factor or safety margin factor into the support vector machine. |
今や以下のようになる 1 mに ロジスティック回帰の時と | My cost function, j of theta is now going to be the following is minus one over m of a sum of a similar term to what we have in logistic regression. |
そしてもしこれを実装すれば それは多変量の線形回帰に対する | I've drawn the blue box around. |
このロジスティック回帰の式と 線形関数fが与えられた時 | So here's a quick quiz for you. |
コスト関数は ロジスティック回帰で使った物を 一般化した物だ | The cost function we use for the neural network is going to be a generalization of the one that we use for logistic regression. |
ロジスティック回帰では コスト関数Jのシータを 最小化したのだった | For logistic regression, we used to minimize the cost function j of theta that was minus 1 over m of this cost function and then plus this extra regularization term here, where this was a sum from j equals 1 through n, because we did not regularize the bias term theta zero. |
ロジスティック回帰の仮説が 定義されるかを見ている 次のビデオでは | logistic regression and we're seeing what the mathematical formula is defining the hypothesis for logistic regression. |
これは単に これは単に ロジスティック回帰とはちょっとだけ異なる | First, we're going to get rid of the 1 over m terms and this just, this just happens to be a slightly different convention that people use for support vector machines compared to for logistic regression. |
ロジスティック回帰もある では何故 ニューラルネットワークなんて物が必要なんだ ニューラルネットワークの議論を | We already have linear regression and we have logistic regression, so why do we need, you know, neural networks? |
適用しよう とすると たくさんの非線形のフィーチャーに対して ロジスティック回帰を | If you want to apply logistic regression to this problem, one thing you could do is apply |
ロジスティック回帰の出力は 次の関数で求められます 1 1 e f X となります | Let F of XP, or linear function, and the output of logistic regression is obtained by the following function |
ロジスティック回帰の目的関数全体への 今 この仮説の定義の式を取り ここに | That's the term that a single training example contributes to the overall objective function for logistic regression. |
教師有りの分類問題の学習を考えてみよう この問題にロジスティック回帰を | Consider a supervised learning classification problem where you have a training set like this. |
仮説の出力の値は0に近いから ここでロジスティック回帰の コスト関数を見てみると | less than 0 because that corresponds to hypothesis of outputting a value close to 0. |
最後に ロジスティック回帰と異なり サポートベクターマシンは確率を出力する訳では無い その代わりに | Machine and where you minimize that function then what you have is the parameters |
そんな名前になってるだけだから 混乱しないように ロジスティック回帰は実際は | But that's just the name it was given for historical reasons so don't be confused by that. |
回転変化のような多様な変化を小さくします 回転やスケール変化 また一定の変換のような変化に対して 不変な統計量を算出することで可能にします | All of these methods take corners and reduce the various variants like rotational variants by extracting statistics that are invariant to things like rotation and scale and certain perspective transformation. |
もし単回帰の一予測変数で標準化された回帰係数を見たいなら | It gets even easier if we want to look at the standardized regression coefficient. |
SVMを使う時に もっとも一般的なコンベンションだが それは以下のような物だ ロジスティック回帰の時は | The second bit of notational change, we're just designating the most standard convention, when using as the SVM, instead of logistic regression as a following. |
yの変化量 xの変化量です では この場合でのyの変化量 xの変化量を | Or another way of writing it, it's change in y over change in x. |
正規化の項 これはロジスティック回帰と似てるね この和の項はほんとうに難しそうに見えるね | And finally, the second term here is the regularization term similar to what we had for logistic regression. |
音量変更 | Change volume |
多量の血だ | That's a lot of blood. |
zをシータ転置のxを表すのに使う では ロジスティック回帰において 我らが何をするかを見てみよう | And in order to explain some of the math, I'm going to use z to denote failure of transpose x here. |
北回帰線 | Tropic of Cancer |
南回帰線 | Tropic of Capricorn |
KHTML 回帰テストユーティリティ | KHTML Regression Testing Utility |
Δy Δx y方向の変化量 x方向の変化量 | So its slope is just delta I'm still using the line tool again delta y over delta x. |
そう y方向の変化量 x方向の変化量 | So let's figure out the slope of this line. |
前のレクチャーで 単回帰をやりました それは回帰方程式の中に一つの予測変数しか | And today, I'd like to introduce you to multiple regression. |
質量の変換 | Mass Conversions |
変数が2つあるので回帰直線を求めます | And I would argue this is a clear linear regression case, you have two variables, so this is what you're going to do. |
6xの変化量 x 2にxの変化量を割ると | So the slope of my secant |
では この傾き yの変化量 xの変化量の | That is your change in y. |
新しいコスト関数だ そして想像できると思うが ロジスティック回帰と極めて似た事をやっていく事になる | It doesn't matter that much but that's the new cost function we're going to use where y is equal to 1 and you can imagine you should do something pretty similar to logistic regression but it turns out that this will give the support vector machine computational advantage that will give us later on an easier optimization problem, that will be easier for stock trades and so on. |
関連検索 : 多変量回帰 - 多変量回帰 - 多重ロジスティック回帰 - ロジスティック回帰 - 多変量回帰モデル - ロジスティック回帰モデル - 二変量回帰 - 序数ロジスティック回帰 - 多項回帰 - 条件付きロジスティック回帰 - 多変量 - 多項式回帰 - 多変量テスト - 多変量モデル