"回帰残差"の翻訳 英語に:
辞書 日本-英語
回帰残差 - 翻訳 :
例 (レビューされていない外部ソース)
それらが個々の点の残差です それが回帰であり 回帰方程式であり | Down here big prediction error. For the rest of them, not so big, okay. |
これは残差がある場合の線形回帰の一例です | Now we plug in W1 0.9 4 x 20 equals 0.5. |
私は回帰係数のBの標準誤差を | We can calculate it, for. A slope, of a regression line. |
最小化したい だから残差の二乗和を最小化したい 単回帰の時みたいに | So, we wanna minimize the difference between the observed scores on Y and predicted scores on Y, predicted by the model. |
このデータセットは残差をなくし 線形回帰で当てはめられるように作られています | I've given you a data set. |
これが残差です | 4.9, 3.6, 2.9, 2.8, 3.1. |
残り2回 | Two guesses... left. |
北回帰線 | Tropic of Cancer |
南回帰線 | Tropic of Capricorn |
KHTML 回帰テストユーティリティ | KHTML Regression Testing Utility |
大きな残差は小さな残差よりも大きくなるからです | It has to do with the fact that in a quadratic version of the error, |
そして最適な位置を取る回帰曲線が 縦軸の残差の合計の最小化を このグラフで表しているのです | This is an example of linear regression, in which case there is a residual error, and the best fitting curve is the one that minimizes the total of the residual vertical error in this graph over here. |
残差の二乗和だった | That's the residual sums of squares. |
そしてTは 今見たように その式は 回帰係数 標準誤差 です | The P value is a direct, is directly a function of the T value. |
Rで重回帰分析をする回だ 前回は重回帰分析を一つやった | Hi, welcome back. |
よって緑の線の残差は | And when you work this out, you'll find that this is 6 4 c² is the same as 3 2 c². |
大きな残差が見られるでしょう そして分布の上の方を見ると 少しの残差しかないのを見る事になる もし残差がXの関数だと もしXと残差の | Then, if I looked at the residuals then at the bottom of the distribution here, I would see big residuals, and if I looked at the top of the distribution, I would see small residuals. |
回帰テストの出力 | Regression testing output |
回帰テストの状態 | Regression Testing Status |
khtml 回帰テスターの GUI | GUI for the khtml regression tester |
残差を見よ という事です 計測誤差を見よ | So one fundamental lesson to take away from that simple example is look at your residuals. |
回帰をやってる今は 回帰方程式の中の標準化されてない回帰係数Bで | Either way it's up to you. |
どの直線が2次元の残差が最も小さく 回帰直線として適しているでしょう 3つから選んでください | So let's look into this with examples for the following four data points, which of these lines has the smallest quadratic error and would be the best regression line pick one of the three. |
単回帰を見てみよう 回帰定数はここでも0 | Now let's look at the simple regression with active years in the equation. |
今回のキーワードだ 差異 差異の意味は たとえば | And literally what it means is that in any population of living organisms you're going to have some variation. |
残差自体の大きさはcの半分です したがって残差は c 2 ²となります | Now, how about the green one? For the green one, we have errors for all six points. |
残差を最小にしたい 予測誤差を最小にしたい | This is where the concept of ordinary lease squar es regression comes in. And the idea is very simple. |
そして標準化回帰係数と偏回帰係数の 違いです | We'll come back to that again in multiple regression, and in lecture nine in R. And then, the importance of this distinction between unstandardi zed and standardized regression coefficients. |
2 回グラフを交差しています | Right? |
グラフを 2 回交差しています | You draw a vertical line right there. |
大交差点だ 先回りできる | It's the main intersection. We could head him off that way. |
標準誤差は残差の二乗和をn 2で割った物です | But again what's standard errors. |
まだ18回よ あと2回残ってるわ | I did 18. I have to do another 2. |
Kate のための回帰テスター | Regression tester for kate |
khtml のための回帰テスター | Regression tester for khtml |
回帰定数は消えて | Another thing I did here is I standardized everything, just to make this a little easier on us. |
線形回帰は実際に | In this particular example, it |
ボビーが帰れなくて残念ね | Sorry Bobby couldn't come home for the holidays. |
トレーニング誤差とクロスバリデーション誤差を 前回のビデオ同様に 定義しよう | Concretely, let our training error and cross validation error be defined as in the previous videos, just say, the squared error, the average squared error as measured on the 20 sets or as measured on the cross validation set. |
3 1.2 100回 残ってるぞ | 1, 2 3 1, 2 |
重回帰での回帰係数の計算 ここでも単回帰の時と同じように最小二乗法やってるんだが | So the main topic of this segment is just again estimation of regression coefficients in multiple regression. |
でもそこにあるから 我々は重回帰の回帰係数の計算を | But for the sake of time, I didn't wanna go through that here. |
y bx aの回帰係数と | We have x of 1, 2, and 3 and y of 4, 7, and 13. |
重回帰分析を行った | And, in the last segment. |
ナイーブベイズ k近傍法 サポートベクターマシン ロジスティック回帰 | Which of these would be a good algorithm or technique for doing this classification into things like people, places, and drugs. |
関連検索 : 回帰 - 回帰 - 回帰 - 残差 - 残差 - ロジット回帰 - プロビット回帰 - 単回帰 - Cox回帰 - リッジ回帰 - ステップワイズ回帰 - ステップワイズロジスティック回帰 - 回帰さ - 偏回帰