"ロジスティック回帰"の翻訳 英語に:
辞書 日本-英語
ロジスティック回帰 - 翻訳 :
例 (レビューされていない外部ソース)
ナイーブベイズ k近傍法 サポートベクターマシン ロジスティック回帰 | Which of these would be a good algorithm or technique for doing this classification into things like people, places, and drugs. |
ロジスティック回帰やニューラルネットワークと比べて サポートベクターマシーン | And that's called the support vector machine, and compared to both the logistic regression and neural networks, the |
ロジスティック回帰で使っていたコスト関数に | I just drew in magenta. The curve that I just drew purple and magenta. |
これはロジスティック回帰の コスト関数 Jのシータだ | Armed with these definitions, we are now ready to build the support vector machine. |
ロジスティック回帰のアルゴリズムの 詳細を見ていきます | In the next video we'll start working out the details of the logistic regression algorithm. |
対応する値は ロジスティック回帰の時同様 除く | Except that we don't sum over the terms corresponding to these bias values |
これは普段ロジスティック回帰に使っているのと | And it will compute the test error as follows. |
代わりに例えばロジスティック回帰を使っていた場合はどうだろう その場合でも ロジスティック回帰でのトレーニングとテストの | How about if we were doing a classification problem and say using logistic regression instead. |
ロジスティック回帰の語源でもある ところで sigmod関数と | And the term logistic function, that's what give rise to the name logistic progression. |
またはセーフティーマージンを サポートベクターマシンに組み込むと言える ロジスティック回帰も | And so this builds in an extra safety factor or safety margin factor into the support vector machine. |
今や以下のようになる 1 mに ロジスティック回帰の時と | My cost function, j of theta is now going to be the following is minus one over m of a sum of a similar term to what we have in logistic regression. |
このロジスティック回帰の式と 線形関数fが与えられた時 | So here's a quick quiz for you. |
コスト関数は ロジスティック回帰で使った物を 一般化した物だ | The cost function we use for the neural network is going to be a generalization of the one that we use for logistic regression. |
ロジスティック回帰では コスト関数Jのシータを 最小化したのだった | For logistic regression, we used to minimize the cost function j of theta that was minus 1 over m of this cost function and then plus this extra regularization term here, where this was a sum from j equals 1 through n, because we did not regularize the bias term theta zero. |
ロジスティック回帰の仮説が 定義されるかを見ている 次のビデオでは | logistic regression and we're seeing what the mathematical formula is defining the hypothesis for logistic regression. |
これは単に これは単に ロジスティック回帰とはちょっとだけ異なる | First, we're going to get rid of the 1 over m terms and this just, this just happens to be a slightly different convention that people use for support vector machines compared to for logistic regression. |
ロジスティック回帰もある では何故 ニューラルネットワークなんて物が必要なんだ ニューラルネットワークの議論を | We already have linear regression and we have logistic regression, so why do we need, you know, neural networks? |
適用しよう とすると たくさんの非線形のフィーチャーに対して ロジスティック回帰を | If you want to apply logistic regression to this problem, one thing you could do is apply |
ロジスティック回帰の出力は 次の関数で求められます 1 1 e f X となります | Let F of XP, or linear function, and the output of logistic regression is obtained by the following function |
ロジスティック回帰の目的関数全体への 今 この仮説の定義の式を取り ここに | That's the term that a single training example contributes to the overall objective function for logistic regression. |
教師有りの分類問題の学習を考えてみよう この問題にロジスティック回帰を | Consider a supervised learning classification problem where you have a training set like this. |
仮説の出力の値は0に近いから ここでロジスティック回帰の コスト関数を見てみると | less than 0 because that corresponds to hypothesis of outputting a value close to 0. |
最後に ロジスティック回帰と異なり サポートベクターマシンは確率を出力する訳では無い その代わりに | Machine and where you minimize that function then what you have is the parameters |
そんな名前になってるだけだから 混乱しないように ロジスティック回帰は実際は | But that's just the name it was given for historical reasons so don't be confused by that. |
SVMを使う時に もっとも一般的なコンベンションだが それは以下のような物だ ロジスティック回帰の時は | The second bit of notational change, we're just designating the most standard convention, when using as the SVM, instead of logistic regression as a following. |
正規化の項 これはロジスティック回帰と似てるね この和の項はほんとうに難しそうに見えるね | And finally, the second term here is the regularization term similar to what we had for logistic regression. |
zをシータ転置のxを表すのに使う では ロジスティック回帰において 我らが何をするかを見てみよう | And in order to explain some of the math, I'm going to use z to denote failure of transpose x here. |
北回帰線 | Tropic of Cancer |
南回帰線 | Tropic of Capricorn |
KHTML 回帰テストユーティリティ | KHTML Regression Testing Utility |
新しいコスト関数だ そして想像できると思うが ロジスティック回帰と極めて似た事をやっていく事になる | It doesn't matter that much but that's the new cost function we're going to use where y is equal to 1 and you can imagine you should do something pretty similar to logistic regression but it turns out that this will give the support vector machine computational advantage that will give us later on an easier optimization problem, that will be easier for stock trades and so on. |
物についても説明し ある種の可視化も一緒に行うことで このロジスティック回帰における仮説の関数が | And I want to tell you something called the decision boundary and we'll look at some visualizations together to try to get a better sense of what this hypothesis function of |
Rで重回帰分析をする回だ 前回は重回帰分析を一つやった | Hi, welcome back. |
回帰テストの出力 | Regression testing output |
回帰テストの状態 | Regression Testing Status |
khtml 回帰テスターの GUI | GUI for the khtml regression tester |
回帰をやってる今は 回帰方程式の中の標準化されてない回帰係数Bで | Either way it's up to you. |
単回帰を見てみよう 回帰定数はここでも0 | Now let's look at the simple regression with active years in the equation. |
sigmoid関数 または ロジスティック関数と呼ばれる そしてロジスティック関数という言葉が | E to the negative Z. This called the sigmoid function or the logistic function. |
そして標準化回帰係数と偏回帰係数の 違いです | We'll come back to that again in multiple regression, and in lecture nine in R. And then, the importance of this distinction between unstandardi zed and standardized regression coefficients. |
Kate のための回帰テスター | Regression tester for kate |
khtml のための回帰テスター | Regression tester for khtml |
回帰定数は消えて | Another thing I did here is I standardized everything, just to make this a little easier on us. |
線形回帰は実際に | In this particular example, it |
単に一つのロジスティック回帰の出力ユニットしか無いのではなく その代わりにK個のユニットがある訳だ これがそのコスト関数となる | Where instead of having basically just one logistic regression output unit, we may instead have K of them. |
関連検索 : ロジスティック回帰モデル - 序数ロジスティック回帰 - 多重ロジスティック回帰 - 多変量ロジスティック回帰 - 条件付きロジスティック回帰 - 回帰 - 回帰 - 回帰 - ロジット回帰 - プロビット回帰 - 単回帰 - Cox回帰 - リッジ回帰 - ステップワイズ回帰