"コスト回帰"の翻訳 英語に:


  辞書 日本-英語

コスト回帰 - 翻訳 :

  例 (レビューされていない外部ソース)

ロジスティック回帰で使っていたコスト関数に
I just drew in magenta. The curve that I just drew purple and magenta.
これはロジスティック回帰の コスト関数 Jのシータだ
Armed with these definitions, we are now ready to build the support vector machine.
コスト関数は ロジスティック回帰で使った物を 一般化した物だ
The cost function we use for the neural network is going to be a generalization of the one that we use for logistic regression.
ロジスティック回帰では コスト関数Jのシータを 最小化したのだった
For logistic regression, we used to minimize the cost function j of theta that was minus 1 over m of this cost function and then plus this extra regularization term here, where this was a sum from j equals 1 through n, because we did not regularize the bias term theta zero.
反時計回りのコストは0なので 回転コストの合計は0でゴールに到達できます
We first turn left and down and then right.
北回帰線
Tropic of Cancer
南回帰線
Tropic of Capricorn
KHTML 回帰テストユーティリティ
KHTML Regression Testing Utility
コスト関数だ 今回やりたいのは
Here's the cost function that we wrote down in the previous video.
仮説の出力の値は0に近いから ここでロジスティック回帰の コスト関数を見てみると
less than 0 because that corresponds to hypothesis of outputting a value close to 0.
Rで重回帰分析をする回だ 前回は重回帰分析を一つやった
Hi, welcome back.
回帰テストの出力
Regression testing output
回帰テストの状態
Regression Testing Status
khtml 回帰テスターの GUI
GUI for the khtml regression tester
回帰をやってる今は 回帰方程式の中の標準化されてない回帰係数Bで
Either way it's up to you.
単回帰を見てみよう 回帰定数はここでも0
Now let's look at the simple regression with active years in the equation.
その場で時計方向に回るコストは 10で
The goal is worth 100. A straight motion costs 1.
そして標準化回帰係数と偏回帰係数の 違いです
We'll come back to that again in multiple regression, and in lecture nine in R. And then, the importance of this distinction between unstandardi zed and standardized regression coefficients.
Kate のための回帰テスター
Regression tester for kate
khtml のための回帰テスター
Regression tester for khtml
回帰定数は消えて
Another thing I did here is I standardized everything, just to make this a little easier on us.
線形回帰は実際に
In this particular example, it
勾配降下法のアルゴリズムについて話し 線形回帰のモデルと 二乗誤差のコスト関数についても話した
In previous videos, we talked about the gradient descent algorithm and talked about the linear regression model and the squared error cost function.
重回帰での回帰係数の計算 ここでも単回帰の時と同じように最小二乗法やってるんだが
So the main topic of this segment is just again estimation of regression coefficients in multiple regression.
でもそこにあるから 我々は重回帰の回帰係数の計算を
But for the sake of time, I didn't wanna go through that here.
y bx aの回帰係数と
We have x of 1, 2, and 3 and y of 4, 7, and 13.
重回帰分析を行った
And, in the last segment.
ナイーブベイズ k近傍法 サポートベクターマシン ロジスティック回帰
Which of these would be a good algorithm or technique for doing this classification into things like people, places, and drugs.
今回は帰ってやろう
But if you turned that money over to the cops, it'll be in the paper. If you didn't...
前回のレクチャーでは 重回帰を見ていった
And today we're going to do multiple regression analysis in R.
重回帰で回帰係数がどう算出されるかを理解する為だ どうやってこれらの複数の回帰係数が
And the reason we did that is so that we could see exactly how the regression coefficients are estimated in a multiple regression.
コスト
Costs
コスト
Cost
コスト
Cost
このモデルのもう一つの名前は単回帰です そして単回帰の単は
Predicting all the prices as functions of one variable X. And another name for this model is univariate linear regression.
回帰に入っていきます 今日は単回帰をやっていき レクチャー8では
Hi. Welcome back to Statistics One.
線形回帰の別の問題は
Clearly a linear regression model is a very poor one to explain this data over here.
ここに 通常の線形回帰
Let's look at some examples.
これが回帰の概念です
Therefore, y will always be less extreme.
これが線形回帰のアルゴリズムだ
So, this term here.
ロジスティック回帰やニューラルネットワークと比べて サポートベクターマシーン
And that's called the support vector machine, and compared to both the logistic regression and neural networks, the
既に線形回帰もあるし
So why do we need yet another learning algorithm?
今回こそは帰国します
This time I'm going home.
それで 今回のご帰国は
What brought you back home?
新しいコスト関数だ そして想像できると思うが ロジスティック回帰と極めて似た事をやっていく事になる
It doesn't matter that much but that's the new cost function we're going to use where y is equal to 1 and you can imagine you should do something pretty similar to logistic regression but it turns out that this will give the support vector machine computational advantage that will give us later on an easier optimization problem, that will be easier for stock trades and so on.

 

関連検索 : 回帰 - 回帰 - 回帰 - 帰属コスト - ロジット回帰 - プロビット回帰 - 単回帰 - Cox回帰 - リッジ回帰 - ステップワイズ回帰 - ステップワイズロジスティック回帰 - 回帰さ - 偏回帰 - 回帰スイート