"回帰"の翻訳 英語に:
辞書 日本-英語
例 (レビューされていない外部ソース)
北回帰線 | Tropic of Cancer |
南回帰線 | Tropic of Capricorn |
KHTML 回帰テストユーティリティ | KHTML Regression Testing Utility |
Rで重回帰分析をする回だ 前回は重回帰分析を一つやった | Hi, welcome back. |
回帰テストの出力 | Regression testing output |
回帰テストの状態 | Regression Testing Status |
khtml 回帰テスターの GUI | GUI for the khtml regression tester |
回帰をやってる今は 回帰方程式の中の標準化されてない回帰係数Bで | Either way it's up to you. |
単回帰を見てみよう 回帰定数はここでも0 | Now let's look at the simple regression with active years in the equation. |
そして標準化回帰係数と偏回帰係数の 違いです | We'll come back to that again in multiple regression, and in lecture nine in R. And then, the importance of this distinction between unstandardi zed and standardized regression coefficients. |
Kate のための回帰テスター | Regression tester for kate |
khtml のための回帰テスター | Regression tester for khtml |
回帰定数は消えて | Another thing I did here is I standardized everything, just to make this a little easier on us. |
線形回帰は実際に | In this particular example, it |
重回帰での回帰係数の計算 ここでも単回帰の時と同じように最小二乗法やってるんだが | So the main topic of this segment is just again estimation of regression coefficients in multiple regression. |
でもそこにあるから 我々は重回帰の回帰係数の計算を | But for the sake of time, I didn't wanna go through that here. |
y bx aの回帰係数と | We have x of 1, 2, and 3 and y of 4, 7, and 13. |
重回帰分析を行った | And, in the last segment. |
ナイーブベイズ k近傍法 サポートベクターマシン ロジスティック回帰 | Which of these would be a good algorithm or technique for doing this classification into things like people, places, and drugs. |
今回は帰ってやろう | But if you turned that money over to the cops, it'll be in the paper. If you didn't... |
前回のレクチャーでは 重回帰を見ていった | And today we're going to do multiple regression analysis in R. |
重回帰で回帰係数がどう算出されるかを理解する為だ どうやってこれらの複数の回帰係数が | And the reason we did that is so that we could see exactly how the regression coefficients are estimated in a multiple regression. |
このモデルのもう一つの名前は単回帰です そして単回帰の単は | Predicting all the prices as functions of one variable X. And another name for this model is univariate linear regression. |
回帰に入っていきます 今日は単回帰をやっていき レクチャー8では | Hi. Welcome back to Statistics One. |
線形回帰の別の問題は | Clearly a linear regression model is a very poor one to explain this data over here. |
ここに 通常の線形回帰 | Let's look at some examples. |
これが回帰の概念です | Therefore, y will always be less extreme. |
これが線形回帰のアルゴリズムだ | So, this term here. |
ロジスティック回帰やニューラルネットワークと比べて サポートベクターマシーン | And that's called the support vector machine, and compared to both the logistic regression and neural networks, the |
既に線形回帰もあるし | So why do we need yet another learning algorithm? |
今回こそは帰国します | This time I'm going home. |
それで 今回のご帰国は | What brought you back home? |
ただ回帰分析を実行すると 標準化されてない回帰係数と同時に | Aspect of R that's a little bit unique. In most software packages if you run a regression analysis it will just. |
そして外では 標準化した回帰係数と標準化してない回帰係数の | That's ordinary least squares, is the approach we'll take at first. |
もし単回帰の一予測変数で標準化された回帰係数を見たいなら | It gets even easier if we want to look at the standardized regression coefficient. |
重回帰で実行するだけで | All, simultaneously in one analysis. |
つまり平均への回帰です | This is the concept of regression. |
だけど 線形回帰の場合の | You know, you can end up here or here. |
重回帰の分析をしていく | So this is lecture nine. |
でもアクティブ年数の回帰係数は | Now it's about eighteen. |
実際の所 近年は 回帰線は | They move they go up, they go down. |
もともとの線形回帰では | In the original version of |
標準化された回帰係数を得た 標準化された回帰係数 0.34は回帰係数 これがあなたのやった事をチェックする方法 | This is when I put active years in the regression equation by itself and I use the scale function and R to get the standardized regression coefficient. |
それらが個々の点の残差です それが回帰であり 回帰方程式であり | Down here big prediction error. For the rest of them, not so big, okay. |
それらがこの例の回帰係数 | What are these numbers, what does this mean? |
関連検索 : ロジット回帰 - プロビット回帰 - 単回帰 - Cox回帰 - リッジ回帰 - ステップワイズ回帰 - ステップワイズロジスティック回帰 - 回帰さ - 偏回帰 - 回帰スイート - 序回帰 - 回帰式