Translation of "simple regression" to Japanese language:
Dictionary English-Japanese
Examples (External sources, not reviewed)
So again, here's the simple regression equation. | 予測値yを得るには 回帰定数足すことの |
When you, do the simple regression equations. | 係数を標準化すると |
For now, simple regression, it's real easy. | それをどう計算するかは既に見てきました 思い出して下さい それはクロス積の和の |
So, here's a simple regression equation, or, a simple path model. | ここのトップを見ると これはただの単回帰 |
line intercept plus slope, and that's simple regression. | 今ここでやるのは さらに好きなだけ予測変数を追加する事です |
So we have our simple regression equation. Here. | 次に モデレータ変数を追加する この先に進める為の例として 外向性と幸福度 そして |
And we know from just simple regression, a few | XとYが相関していると XからYが予測出来る |
So remember in simple regression, the standardized regression coefficient was the same as the correlation coefficient. | 一致しました いまやそうでは無い 何故ならこれは 出版数と性別を考慮に入れた上での |
So, in the last lecture we talked about simple regression. | 方程式には一つの予測変数 今日はもっとたくさんの予測変数を |
In the last lecture, we did simple regression, which is just one predictor in the regression equations. | ありません 今日は 重回帰を見ていきます |
Before, when we just did simple regression, that was our equation. | 一つだけの予測変数 Yとして予測されたスコアは |
In the first two simple regression models, here are the results. | 標準化していない回帰係数は0.28となる |
So again, minimize sums of squares residuals, just like in simple regression. | これが単回帰の方程式だった |
So first what we're gonna do is just. Run a simple regression. | 回帰方程式に一つの予測変数だけを加える |
So, that whole regression equation is represented in this simple path model. | これは人々が何十年も使い続けている標準化されたノーテーションだ |
Now let's look at the simple regression with active years in the equation. | 単回帰を見てみよう 回帰定数はここでも0 |
We're up to lecture seven now, and we're ready to jump into regression, and today we'll just do simple regression, and then in | 重回帰をやっていきます そしてレクチャー9では |
So, simple logistic regression together with adding in maybe the quadratic or the cubic features | 2次や 3次のフィーチャーを 加えたもの これは n が大きい時に |
linear regression. | 元通りの線形回帰の目的関数に戻します |
logistic regression. | y 1の時と |
logistic regression. | それは前回はマイナスの符号を |
We're still doing ordinary least squares regression just like we did in simple regression but now we'll be using matrix algebra to calculate the coefficients. | 行列代数を使って係数を計算しよう ってのが違い ここでも 係数はモデルが最適な予測になるように |
Just two simple regressions and model three is the multiple regression with both predictors in there. | 2つの予測変数を入れた重回帰 そうするとモデルの比較が出来る 予測変数を追加して一つのモデルに |
And if you compare them to the regression coefficients when they are entered by themselves in the simple regression models both, they don't drop very much. | そんなには低下していない 外向性は0.28から0.22へ 多様性は |
Now, this didn't really come up much in simple regression because the model was just one predictor. | 一つの予測変数しか持ってないから 方程式の中に回帰係数は一つしか無い |
That's, important to remember. So, now let's do the simple regression using active years to predict endurance. | 持久力を予測していく これをモデル2と呼ぶことにする |
So again, we wind up with just beta equals r. That's only true in simple regression. In | レクチャー8では多変数の回帰を見ることになります そいつはこれよりはもう少し |
Regression testing output | 回帰テストの出力 |
Regression Testing Status | 回帰テストの状態 |
Regression is continuous. | 気温は66 5度 という予想などです |
So, today is very a very simple basic approach just to give you the general concepts in regression. | 一般的なコンセプトを教えていきます そして今日のレクチャーは2つのセグメントしかありません |
Regression tester for kate | Kate のための回帰テスター |
KHTML Regression Testing Utility | KHTML 回帰テストユーティリティ |
Regression tester for khtml | khtml のための回帰テスター |
So, that's linear regression. | ビデオでは このモデルをどのように実装していくかをお話します |
logistic regression with a | 適用していく というのが考えられる |
And again, remember that in the simple regression equation, B1 is the slope relating X to Y. But beware. | 思い出そう だが気を付けてくれ もしモデレータ変数が導入されると そしてそれが強いモデレータだと |
This is where the concept of ordinary lease squar es regression comes in. And the idea is very simple. | 残差を最小にしたい 予測誤差を最小にしたい |
And what's new is doing multiple regression analysis, asking for standardized regression coefficients. | そうコメントにもある 回帰分析をやって |
Now that we're in regression I want to present this with respect to the unstandardized regression coefficient, B, in the regression equation. | これを示したいと思います 帰無仮説はXとYの関係の傾きがゼロという事です |
linear regression for classification problems. | ここに もう一つ |
The unstandardized regression coefficient, B. | そして係数の標準誤差 |
That is the regression constant. | 最初の予測変数の傾きです だからそれらの他の場所で推計している分を差し引かないと |
Today, we'll see how multiple regression, multiple regression works where we have multiple predictors. | 重回帰は予測変数が複数の時に使えます それはもうちょっと複雑になります 解釈の点でも 係数のラッシュの点でも |
Well, for simple regression, which was what we're doing right now, just one predictor variable, one outcome variable, it's really easy. | ただ一つの結果変数 とても簡単 重回帰だと これは次のレクチャーでやりますが |
Related searches : Simple Linear Regression - Multivariate Regression - Regression Equation - Logit Regression - Tumor Regression - Pooled Regression - Probit Regression - Statistical Regression - Regression Analysis - Regression Coefficient - Rectilinear Regression - Curvilinear Regression