"多重ロジスティック回帰"の翻訳 英語に:
辞書 日本-英語
多重ロジスティック回帰 - 翻訳 :
例 (レビューされていない外部ソース)
ナイーブベイズ k近傍法 サポートベクターマシン ロジスティック回帰 | Which of these would be a good algorithm or technique for doing this classification into things like people, places, and drugs. |
ロジスティック回帰やニューラルネットワークと比べて サポートベクターマシーン | And that's called the support vector machine, and compared to both the logistic regression and neural networks, the |
ロジスティック回帰で使っていたコスト関数に | I just drew in magenta. The curve that I just drew purple and magenta. |
これはロジスティック回帰の コスト関数 Jのシータだ | Armed with these definitions, we are now ready to build the support vector machine. |
ロジスティック回帰のアルゴリズムの 詳細を見ていきます | In the next video we'll start working out the details of the logistic regression algorithm. |
対応する値は ロジスティック回帰の時同様 除く | Except that we don't sum over the terms corresponding to these bias values |
これは普段ロジスティック回帰に使っているのと | And it will compute the test error as follows. |
代わりに例えばロジスティック回帰を使っていた場合はどうだろう その場合でも ロジスティック回帰でのトレーニングとテストの | How about if we were doing a classification problem and say using logistic regression instead. |
ロジスティック回帰の語源でもある ところで sigmod関数と | And the term logistic function, that's what give rise to the name logistic progression. |
またはセーフティーマージンを サポートベクターマシンに組み込むと言える ロジスティック回帰も | And so this builds in an extra safety factor or safety margin factor into the support vector machine. |
今や以下のようになる 1 mに ロジスティック回帰の時と | My cost function, j of theta is now going to be the following is minus one over m of a sum of a similar term to what we have in logistic regression. |
このロジスティック回帰の式と 線形関数fが与えられた時 | So here's a quick quiz for you. |
コスト関数は ロジスティック回帰で使った物を 一般化した物だ | The cost function we use for the neural network is going to be a generalization of the one that we use for logistic regression. |
Rで重回帰分析をする回だ 前回は重回帰分析を一つやった | Hi, welcome back. |
ロジスティック回帰では コスト関数Jのシータを 最小化したのだった | For logistic regression, we used to minimize the cost function j of theta that was minus 1 over m of this cost function and then plus this extra regularization term here, where this was a sum from j equals 1 through n, because we did not regularize the bias term theta zero. |
ロジスティック回帰の仮説が 定義されるかを見ている 次のビデオでは | logistic regression and we're seeing what the mathematical formula is defining the hypothesis for logistic regression. |
重回帰分析を行った | And, in the last segment. |
これは単に これは単に ロジスティック回帰とはちょっとだけ異なる | First, we're going to get rid of the 1 over m terms and this just, this just happens to be a slightly different convention that people use for support vector machines compared to for logistic regression. |
前回のレクチャーでは 重回帰を見ていった | And today we're going to do multiple regression analysis in R. |
重回帰で実行するだけで | All, simultaneously in one analysis. |
重回帰の分析をしていく | So this is lecture nine. |
ロジスティック回帰もある では何故 ニューラルネットワークなんて物が必要なんだ ニューラルネットワークの議論を | We already have linear regression and we have logistic regression, so why do we need, you know, neural networks? |
適用しよう とすると たくさんの非線形のフィーチャーに対して ロジスティック回帰を | If you want to apply logistic regression to this problem, one thing you could do is apply |
ロジスティック回帰の出力は 次の関数で求められます 1 1 e f X となります | Let F of XP, or linear function, and the output of logistic regression is obtained by the following function |
ロジスティック回帰の目的関数全体への 今 この仮説の定義の式を取り ここに | That's the term that a single training example contributes to the overall objective function for logistic regression. |
教師有りの分類問題の学習を考えてみよう この問題にロジスティック回帰を | Consider a supervised learning classification problem where you have a training set like this. |
ここまでで持ち帰って欲しい重要な事は重回帰のアイデアと | Okay. That wraps up this segment. |
でもそこにあるから 我々は重回帰の回帰係数の計算を | But for the sake of time, I didn't wanna go through that here. |
あなたは重回帰を手で出来る | You can do this by hand if you had to, if you lost all electricity and there, there's no internet and no R software. |
最初は概念的に重回帰を学び | In the last few lectures we have covered in detail multiple regression analysis. |
仮説の出力の値は0に近いから ここでロジスティック回帰の コスト関数を見てみると | less than 0 because that corresponds to hypothesis of outputting a value close to 0. |
最後に ロジスティック回帰と異なり サポートベクターマシンは確率を出力する訳では無い その代わりに | Machine and where you minimize that function then what you have is the parameters |
そんな名前になってるだけだから 混乱しないように ロジスティック回帰は実際は | But that's just the name it was given for historical reasons so don't be confused by that. |
今日のトピックは重回帰でのモデレーション分析だ | Hi, welcome back to Statistics one. |
それらを重回帰の例に適用出来る | Once you have those basic skills down. |
重回帰での回帰係数の計算 ここでも単回帰の時と同じように最小二乗法やってるんだが | So the main topic of this segment is just again estimation of regression coefficients in multiple regression. |
重回帰で回帰係数がどう算出されるかを理解する為だ どうやってこれらの複数の回帰係数が | And the reason we did that is so that we could see exactly how the regression coefficients are estimated in a multiple regression. |
最初のセグメントで 最初の重回帰分析をやる | I've organized this lecture into two segments. |
このセグメントでは 前回のセグメントでやった 重回帰分析を使って | Hi, welcome back. We're in Lecture ten, Segment two. |
SVMを使う時に もっとも一般的なコンベンションだが それは以下のような物だ ロジスティック回帰の時は | The second bit of notational change, we're just designating the most standard convention, when using as the SVM, instead of logistic regression as a following. |
今日は重回帰を紹介したいと思います | We're up to lecture eight, almost have way through the course. |
それら重回帰係数をどう算出するかを | Then, we can apply that to the multiple regression example. |
今日はRで重回帰の分析をやっていく | Hi, welcome back to Statistics one. We're up to lecture nine. |
多変量の線形回帰とも 呼ばれている | And, just to give this another name, this is also called multivariate linear regression. |
理解する事と標準化された物とされてない物の回帰係数の 解釈の仕方を理解する事です そして標準的な重回帰とシーケンシャル重回帰の違いを | The important concepts to take away from this segment are, again, understanding the equation and the components of the equation, how to interpret the, both the unstandardized and the standarized regression coefficients. |
関連検索 : ロジスティック回帰 - 多変量ロジスティック回帰 - ロジスティック回帰モデル - 序数ロジスティック回帰 - 多重線形回帰 - 重回帰 - 多項回帰 - 加重回帰 - 回帰重み - 重回帰モデル - 条件付きロジスティック回帰 - 多変量回帰 - 多項式回帰 - 多変量回帰