"回帰関数"の翻訳 英語に:
辞書 日本-英語
回帰関数 - 翻訳 :
例 (レビューされていない外部ソース)
平均も相関係数も回帰係数も | And that's true of any sample statistic. |
これは相関係数と同じでは無い 単回帰では標準化された回帰係数は相関係数と | But again, now that we're in multiple regression, this is not the same as the correlation coefficient. |
ロジスティック回帰で使っていたコスト関数に | I just drew in magenta. The curve that I just drew purple and magenta. |
これはロジスティック回帰の コスト関数 Jのシータだ | Armed with these definitions, we are now ready to build the support vector machine. |
そしてそれぞれの回帰係数に関する | So, we can just plug values in and get a predicted score. |
だから回帰係数をただ見ても良いし 相関係数を | How strong is the relationship? |
元通りの線形回帰の目的関数に戻します | linear regression. |
ロジスティック回帰の語源でもある ところで sigmod関数と | And the term logistic function, that's what give rise to the name logistic progression. |
そして標準化回帰係数と偏回帰係数の 違いです | We'll come back to that again in multiple regression, and in lecture nine in R. And then, the importance of this distinction between unstandardi zed and standardized regression coefficients. |
回帰定数は消えて | Another thing I did here is I standardized everything, just to make this a little easier on us. |
でもアクティブ年数の回帰係数は | Now it's about eighteen. |
最急降下法を使って他の関数も最小化します 線形回帰の目的関数 J | It's actually used all over the place in machine learning. |
このロジスティック回帰の式と 線形関数fが与えられた時 | So here's a quick quiz for you. |
コスト関数は ロジスティック回帰で使った物を 一般化した物だ | The cost function we use for the neural network is going to be a generalization of the one that we use for logistic regression. |
y bx aの回帰係数と | We have x of 1, 2, and 3 and y of 4, 7, and 13. |
重回帰で回帰係数がどう算出されるかを理解する為だ どうやってこれらの複数の回帰係数が | And the reason we did that is so that we could see exactly how the regression coefficients are estimated in a multiple regression. |
単回帰を見てみよう 回帰定数はここでも0 | Now let's look at the simple regression with active years in the equation. |
ロジスティック回帰では コスト関数Jのシータを 最小化したのだった | For logistic regression, we used to minimize the cost function j of theta that was minus 1 over m of this cost function and then plus this extra regularization term here, where this was a sum from j equals 1 through n, because we did not regularize the bias term theta zero. |
そうですね これは線形回帰の目的関数でした さて | That minimizes J of theta one. |
ここでもトリックは 複数の回帰係数が | And then, we can have multiple predictors and multiple regression coefficients. |
相関と回帰を計算しました | Then we came to the meat of the unit. |
回帰をやってる今は 回帰方程式の中の標準化されてない回帰係数Bで | Either way it's up to you. |
年齢の回帰係数は年齢と持久力の相関になっている | So now the regression constant is zero. |
再帰関数は使えません | recursive function not allowed |
そして外では 標準化した回帰係数と標準化してない回帰係数の | That's ordinary least squares, is the approach we'll take at first. |
もし単回帰の一予測変数で標準化された回帰係数を見たいなら | It gets even easier if we want to look at the standardized regression coefficient. |
標準化された回帰係数を得た 標準化された回帰係数 0.34は回帰係数 これがあなたのやった事をチェックする方法 | This is when I put active years in the regression equation by itself and I use the scale function and R to get the standardized regression coefficient. |
回帰に関する最初の小テストです | So let's look at the regression next. |
再帰の補助関数を書いて | So how do I do this part? |
それらがこの例の回帰係数 | What are these numbers, what does this mean? |
でもそこにあるから 我々は重回帰の回帰係数の計算を | But for the sake of time, I didn't wanna go through that here. |
そしてRのsummary関数を使って その回帰分析の結果をプリントした | So I came up with that name, Model one. It can be anything. |
今回は 関数 f t をe atとします 今回は 関数 f t をe atとします | Let's say that we want to take the Laplace transform and now our function f of t, let's say it is e to the at. |
標準化してない回帰係数から標準化した回帰係数に移れるようになった | Than looking at either one alone. And, the other thing that this segment. |
factorial関数は再帰的になるので | C or C or Java or C , curly brace languages. |
標準化したからね アクティブ年数の回帰係数は | Again, the regression constant now is zero because we've standardized. |
これは線形回帰より複雑なモデルで fをxの線形関数とすると | For such situations there is a model called logistic regression, which uses a slightly more complicated model than linear regression, which goes as follows . |
線形関数を用いた回帰について ここでも考察してきました | Now, there are many different ways to apply linear functions in machine learning. |
正の傾きだ 正の回帰直線 そしてちょっとだけ前の関数より | And indeed that's what we see. |
相関は何なのか 回帰係数は何なのか 区間をレポートして 95 の信頼性で相関係数は0.6と0.7の間に | So instead of reporting just the point estimate, what is the mean, what is the correlation, what is the regression coefficient. |
だから相関と回帰の文脈だと XとYの相関が | And the null hypothesis just says that there's no effect. |
コスト関数だ 今回やりたいのは | Here's the cost function that we wrote down in the previous video. |
そして複数の予測変数と複数の回帰係数があります | We're still going to have an intercept, that's still the predicted score on Y when the X's are zero. |
interpretという再帰関数を書きます | I'm going to write the first half of it, and for this quiz, you're going to finish it off. |
一つだけ提示します だから複数の予測変数が回帰式にある時の回帰係数の解釈の仕方を | So let's start the first segment. |
関連検索 : 回帰係数 - 回帰係数 - 回帰定数 - 再帰関数 - 序数ロジスティック回帰 - 回帰 - 回帰 - 回帰 - ロジット回帰 - プロビット回帰 - 単回帰 - Cox回帰 - リッジ回帰 - ステップワイズ回帰