"序数ロジスティック回帰"の翻訳 英語に:
辞書 日本-英語
序数ロジスティック回帰 - 翻訳 :
例 (レビューされていない外部ソース)
ロジスティック回帰で使っていたコスト関数に | I just drew in magenta. The curve that I just drew purple and magenta. |
これはロジスティック回帰の コスト関数 Jのシータだ | Armed with these definitions, we are now ready to build the support vector machine. |
ナイーブベイズ k近傍法 サポートベクターマシン ロジスティック回帰 | Which of these would be a good algorithm or technique for doing this classification into things like people, places, and drugs. |
ロジスティック回帰やニューラルネットワークと比べて サポートベクターマシーン | And that's called the support vector machine, and compared to both the logistic regression and neural networks, the |
ロジスティック回帰の語源でもある ところで sigmod関数と | And the term logistic function, that's what give rise to the name logistic progression. |
このロジスティック回帰の式と 線形関数fが与えられた時 | So here's a quick quiz for you. |
コスト関数は ロジスティック回帰で使った物を 一般化した物だ | The cost function we use for the neural network is going to be a generalization of the one that we use for logistic regression. |
ロジスティック回帰では コスト関数Jのシータを 最小化したのだった | For logistic regression, we used to minimize the cost function j of theta that was minus 1 over m of this cost function and then plus this extra regularization term here, where this was a sum from j equals 1 through n, because we did not regularize the bias term theta zero. |
ロジスティック回帰のアルゴリズムの 詳細を見ていきます | In the next video we'll start working out the details of the logistic regression algorithm. |
対応する値は ロジスティック回帰の時同様 除く | Except that we don't sum over the terms corresponding to these bias values |
これは普段ロジスティック回帰に使っているのと | And it will compute the test error as follows. |
代わりに例えばロジスティック回帰を使っていた場合はどうだろう その場合でも ロジスティック回帰でのトレーニングとテストの | How about if we were doing a classification problem and say using logistic regression instead. |
またはセーフティーマージンを サポートベクターマシンに組み込むと言える ロジスティック回帰も | And so this builds in an extra safety factor or safety margin factor into the support vector machine. |
今や以下のようになる 1 mに ロジスティック回帰の時と | My cost function, j of theta is now going to be the following is minus one over m of a sum of a similar term to what we have in logistic regression. |
ロジスティック回帰の出力は 次の関数で求められます 1 1 e f X となります | Let F of XP, or linear function, and the output of logistic regression is obtained by the following function |
ロジスティック回帰の目的関数全体への 今 この仮説の定義の式を取り ここに | That's the term that a single training example contributes to the overall objective function for logistic regression. |
仮説の出力の値は0に近いから ここでロジスティック回帰の コスト関数を見てみると | less than 0 because that corresponds to hypothesis of outputting a value close to 0. |
sigmoid関数 または ロジスティック関数と呼ばれる そしてロジスティック関数という言葉が | E to the negative Z. This called the sigmoid function or the logistic function. |
ロジスティック回帰の仮説が 定義されるかを見ている 次のビデオでは | logistic regression and we're seeing what the mathematical formula is defining the hypothesis for logistic regression. |
これは単に これは単に ロジスティック回帰とはちょっとだけ異なる | First, we're going to get rid of the 1 over m terms and this just, this just happens to be a slightly different convention that people use for support vector machines compared to for logistic regression. |
そして標準化回帰係数と偏回帰係数の 違いです | We'll come back to that again in multiple regression, and in lecture nine in R. And then, the importance of this distinction between unstandardi zed and standardized regression coefficients. |
回帰定数は消えて | Another thing I did here is I standardized everything, just to make this a little easier on us. |
でもアクティブ年数の回帰係数は | Now it's about eighteen. |
ロジスティック回帰もある では何故 ニューラルネットワークなんて物が必要なんだ ニューラルネットワークの議論を | We already have linear regression and we have logistic regression, so why do we need, you know, neural networks? |
数十年の内戦の後に秩序が回復した | After decades of civil war, order was restored. |
y bx aの回帰係数と | We have x of 1, 2, and 3 and y of 4, 7, and 13. |
重回帰で回帰係数がどう算出されるかを理解する為だ どうやってこれらの複数の回帰係数が | And the reason we did that is so that we could see exactly how the regression coefficients are estimated in a multiple regression. |
単回帰を見てみよう 回帰定数はここでも0 | Now let's look at the simple regression with active years in the equation. |
適用しよう とすると たくさんの非線形のフィーチャーに対して ロジスティック回帰を | If you want to apply logistic regression to this problem, one thing you could do is apply |
平均も相関係数も回帰係数も | And that's true of any sample statistic. |
教師有りの分類問題の学習を考えてみよう この問題にロジスティック回帰を | Consider a supervised learning classification problem where you have a training set like this. |
新しいコスト関数だ そして想像できると思うが ロジスティック回帰と極めて似た事をやっていく事になる | It doesn't matter that much but that's the new cost function we're going to use where y is equal to 1 and you can imagine you should do something pretty similar to logistic regression but it turns out that this will give the support vector machine computational advantage that will give us later on an easier optimization problem, that will be easier for stock trades and so on. |
ここでもトリックは 複数の回帰係数が | And then, we can have multiple predictors and multiple regression coefficients. |
物についても説明し ある種の可視化も一緒に行うことで このロジスティック回帰における仮説の関数が | And I want to tell you something called the decision boundary and we'll look at some visualizations together to try to get a better sense of what this hypothesis function of |
回帰をやってる今は 回帰方程式の中の標準化されてない回帰係数Bで | Either way it's up to you. |
そして外では 標準化した回帰係数と標準化してない回帰係数の | That's ordinary least squares, is the approach we'll take at first. |
もし単回帰の一予測変数で標準化された回帰係数を見たいなら | It gets even easier if we want to look at the standardized regression coefficient. |
標準化された回帰係数を得た 標準化された回帰係数 0.34は回帰係数 これがあなたのやった事をチェックする方法 | This is when I put active years in the regression equation by itself and I use the scale function and R to get the standardized regression coefficient. |
最後に ロジスティック回帰と異なり サポートベクターマシンは確率を出力する訳では無い その代わりに | Machine and where you minimize that function then what you have is the parameters |
そんな名前になってるだけだから 混乱しないように ロジスティック回帰は実際は | But that's just the name it was given for historical reasons so don't be confused by that. |
それらがこの例の回帰係数 | What are these numbers, what does this mean? |
これは相関係数と同じでは無い 単回帰では標準化された回帰係数は相関係数と | But again, now that we're in multiple regression, this is not the same as the correlation coefficient. |
でもそこにあるから 我々は重回帰の回帰係数の計算を | But for the sake of time, I didn't wanna go through that here. |
標準化してない回帰係数から標準化した回帰係数に移れるようになった | Than looking at either one alone. And, the other thing that this segment. |
標準化したからね アクティブ年数の回帰係数は | Again, the regression constant now is zero because we've standardized. |
関連検索 : ロジスティック回帰 - ロジスティック回帰モデル - 序回帰 - 多重ロジスティック回帰 - 多変量ロジスティック回帰 - 条件付きロジスティック回帰 - 回帰係数 - 回帰関数 - 回帰係数 - 回帰定数 - ロジスティック関数 - 序数 - 回帰 - 回帰