"最小誤差"の翻訳 英語に:
辞書 日本-英語
最小誤差 - 翻訳 :
例 (レビューされていない外部ソース)
残差を最小にしたい 予測誤差を最小にしたい | This is where the concept of ordinary lease squar es regression comes in. And the idea is very simple. |
トレーニングの誤差を最小にするようにパラメータを選ぼうとする トレーニングでの誤差をとっても小さくするのが | When we fit the parameters of our learning algorithm we think about choosing the parameters to minimize the training error. |
だから予測誤差を最小化するという仕事を | It goes from two forty down to two hundred. |
汎化誤差が最小になる位置で得られます 過学習誤差を計算するメソッドがあります | Not surprisingly the best complexity is obtained where the generalization error is minimum. |
誤差がゼロなら更新されません 誤差があれば誤差を縮小するように更新します | If the prediction of our function f equals our target label, and the error is zero, then no update occurs. |
偶発誤差 定誤差から成る | Consisting of accidental and systematic errors. |
訓練データ誤差を最小にするモデルが もし見つからなくても | However, in practice you're often just given the training data error. |
全タイムステップで誤差を最小化する方向に 1ステップ進ませる方法です | The idea is to use gradient descent. |
それに掛けます つまり 平均誤差を最小化するわけです これを1 2m で最小化します | And to make some of our, make the math a little bit easier, I'm going to actually look at, you know, 1 over M times that. |
許容誤差 | Variance |
誤差拡散 | Error diffusion |
さらに最小化してもこれ以上小さくなりません 二次方程式の誤差です | It's already zero for the original setting. |
モノクロ誤差拡散 | Monochrome error diffusion |
テストセットの誤差を | Having done that, finally, what |
こうした全ての誤差の これはかなり最小値に近くなっています | Really, that's a sum of square distances, right? Of all of these errors. |
一つ ありえる事としては こんなのがある 最初のモデル取って トレーニング誤差を最小化し | Here's one thing you could do you could take your first model and minimize the training error and this would give you some parameter vector theta, and you can then take your second model, the quadratic function and for that your training set and this will give you some other parameters vector theta. |
ケースでは この図を見ると クロスバリデーション誤差とトレーニング誤差の | Concretely, for the high bias case, that is, the case of under fitting, what we find is that both the cross validation error and the training error are going to be high. |
誤差は2 3歳 | Give or take a few years |
1つだけ線形から外れています 二乗誤差を最小化しようとすると | This is an interesting one where we seem to have a linear relationship that is flatter than the linear regression indicates, but there is one outlier. |
トレーニング誤差とクロスバリデーション誤差を 前回のビデオ同様に 定義しよう | Concretely, let our training error and cross validation error be defined as in the previous videos, just say, the squared error, the average squared error as measured on the 20 sets or as measured on the cross validation set. |
すると テスト誤差を | If your hypothesis basically classified the example y correctly. |
出力はすべて一番いい誤差best errとします 誤差をより小さくするようpを修正しましょう | Then you can run our command run( ) with our parameters, and whatever it outputs is our best error so far. |
トレーニングセットの誤差も 高くなるだろうし またクロスバリデーションの誤差もまた | So, if your algorithm is suffering from a bias problem, the training set error would be high and you may find that the cross validation error will also be high. |
偶発誤差による値 | Values given over accidental errors. |
計算される 残差を最小化したい | So again, the values of the coefficients are estimated such that the model comes up with optimal predictions. |
これは最小化の差分デバッグのアルゴリズムです | Here we start implementing the delta debugging function. |
これはクロスバリデーション誤差だ ご想像の通り 単なるトレーニング誤差なんだが | And then j subscript cv is my cause validation error is pretty much what you'd expect. |
単なる誤差の二乗の | J C V and J |
yの二乗誤差の和を | The answer is this. |
クロスバリデーションセット誤差とテストセット誤差も 以前と同様に定義する つまり クロスバリデーションセットとテストセットの | And similarly, I'm then also going to define the cross validation set error when the test set error, as before to be the average sum of squared errors on the cross validation and the test sets. |
二乗誤差は各点の間を通る直線の方が 小さくなります | One over here, and one over here. |
2カ所で誤差は2です | If you draw a curve like this, your quadratic error becomes 2. |
非常に大きな誤差です | If I go to my output for 100 steps, I find that the y value is between 0.7 and 0.9. |
そして係数の標準誤差 | The unstandardized regression coefficient, B. |
0.5 km の誤差というのは | It was 22 miles. |
誤差が出てもそれを過学習誤差と 考えないかもしれませんが | Yeah. I would agree with that. |
クロスバリデーション誤差を見てみて この図にプロットしてみよう トレーニング誤差から始めよう | Let's look at the training error and cause validation error and plot them on this figure. |
それがサンプリング誤差 そしてアベレージではどの位のサンプリング誤差が予想されるか が | There's always a little fluctuation from sample to sample. |
そしてそれはしばしば本当です 小さいサンプルで大きなサンプリング誤差 | Then you've got a really big range. |
勾配降下法を 二乗誤差のコスト関数を 最小化するために適用する という事 勾配降下法を | What we're going to do is apply gradient descent to minimize our squared error cost function. |
誤差の二乗だと仮定するとーーー 他方で対照的に クロスバリデーションセットに対する誤差は | Whereas, your cross validation error, assuming that this say the squared error which we're trying to minimize. |
そして標準誤差はどうやって得られるか また標準誤差とは何か | Of course, we won't do that. We'll just do it in R. |
予言の誤差を定義しよう | Here's what I mean. |
誤差の許容範囲に問題が | I've discovered the test has a margin of error. |
これが誤差の範囲かしら? | There's your margin of error. |
関連検索 : 最小二乗誤差 - 最大誤差 - 最小差 - 小さな誤差 - 小さな誤差 - 最大許容誤差 - ピッチ誤差 - バイアス誤差 - ゲイン誤差 - オフセット誤差 - ランアウト誤差 - フィッティング誤差 - スパン誤差 - Rms誤差