"回帰出力"の翻訳 英語に:
辞書 日本-英語
回帰出力 - 翻訳 :
例 (レビューされていない外部ソース)
回帰テストの出力 | Regression testing output |
出力 昇降 旋回 それに回転 | power, pitch, yaw, and roll. |
この出力を回帰方程式に入れただけ このRの出力片からこれらの計算結果を得た | And, again, what I've done at the top of the slide is I've just put in the regression equation from this output. |
ループ内で3回出力します | So, we evaluate the range of 3. |
あなたは重回帰を手で出来る | You can do this by hand if you had to, if you lost all electricity and there, there's no internet and no R software. |
重回帰で回帰係数がどう算出されるかを理解する為だ どうやってこれらの複数の回帰係数が | And the reason we did that is so that we could see exactly how the regression coefficients are estimated in a multiple regression. |
北回帰線 | Tropic of Cancer |
南回帰線 | Tropic of Capricorn |
KHTML 回帰テストユーティリティ | KHTML Regression Testing Utility |
ロジスティック回帰の出力は 次の関数で求められます 1 1 e f X となります | Let F of XP, or linear function, and the output of logistic regression is obtained by the following function |
それらを重回帰の例に適用出来る | Once you have those basic skills down. |
まずそれを再帰呼び出しで出力します | All of my left children are less than or equal to me. |
2つのレベル1再帰呼び出しは それぞれ2回ずつ再帰呼び出しを行う | And I'll call these first two recursive calls, level one. |
仮説の出力の値は0に近いから ここでロジスティック回帰の コスト関数を見てみると | less than 0 because that corresponds to hypothesis of outputting a value close to 0. |
最後に ロジスティック回帰と異なり サポートベクターマシンは確率を出力する訳では無い その代わりに | Machine and where you minimize that function then what you have is the parameters |
回帰問題においては データは長さNの入力ベクトルと | So let's look a little bit deeper into what we call regression. |
Rで重回帰分析をする回だ 前回は重回帰分析を一つやった | Hi, welcome back. |
この下で2回再帰呼び出しをする時に | Instead of printing out what we've selected so far, |
それら重回帰係数をどう算出するかを | Then, we can apply that to the multiple regression example. |
回帰テストの状態 | Regression Testing Status |
khtml 回帰テスターの GUI | GUI for the khtml regression tester |
回帰をやってる今は 回帰方程式の中の標準化されてない回帰係数Bで | Either way it's up to you. |
単回帰を見てみよう 回帰定数はここでも0 | Now let's look at the simple regression with active years in the equation. |
これを一つの回帰式で実行する事も出来る | So we have X, Z and the product all predicting one. |
今の時点では 検出力は単に帰無仮説を | And, we'll get to power in the, in Lecture nine when we do some of these examples in |
この場合は2回更新して出力します | Then recursively update that belief into itself. |
そして標準化回帰係数と偏回帰係数の 違いです | We'll come back to that again in multiple regression, and in lecture nine in R. And then, the importance of this distinction between unstandardi zed and standardized regression coefficients. |
出力が離散的な場合の分類問題と 連続値を予測する回帰問題について説明し | And we looked into parametric models like Naive Bayes non parametric models. |
Kate のための回帰テスター | Regression tester for kate |
khtml のための回帰テスター | Regression tester for khtml |
回帰定数は消えて | Another thing I did here is I standardized everything, just to make this a little easier on us. |
線形回帰は実際に | In this particular example, it |
この再帰プロシージャでは 自分自身を2回呼び出します | May be empty may have more things. |
回帰直線の傾きに対してなども計算出来ます | Not just the mean. |
嵐の外に頭を出して 見回して 無線を傍受 帰る | Put my head outside the storm, look around, listen for wireless traffic, come home. |
ランダム化実験の強力さに帰する事が出来ます | So again, the point of talking about these observational studies. |
再帰呼び出しで 入力の半分を渡している | On the other hand, by a similar argument, the input size is halving each time. |
年齢の回帰係数は年齢と持久力の相関になっている | So now the regression constant is zero. |
より強力な線形回帰の 形式を開発する事が出来る それはもっとたくさんのデータを | We'll be able in the next few videos to develop more powerful forms of linear regression that can view of a lot more data, a lot more features, a lot more training examples and later on after the new regression we'll actually continue using these linear algebra tools to derive more powerful learning algorithims as well |
12回目の鐘で 私は暗黒の力を呼び出す | On the twelfth chime, I will summon the dark powers. |
回帰について説明します 分類では出力結果は二者択一か 決まった種類になります | Today we'll talk about classification versus regression. |
出力することです 出力される数値は ターゲット文字列が2回目に出現する検索文字列の | And your goal is to print out the position of the second occurrence of the target string in the search string. |
その回帰方程式全体をこのシンプルなパスモデルで表現出来る | It can be predictive from some constant plus some predictor variable x times the regression coefficient for x plus error. |
重回帰での回帰係数の計算 ここでも単回帰の時と同じように最小二乗法やってるんだが | So the main topic of this segment is just again estimation of regression coefficients in multiple regression. |
でもそこにあるから 我々は重回帰の回帰係数の計算を | But for the sake of time, I didn't wanna go through that here. |
関連検索 : 回帰 - 回帰 - 回帰 - 出力回路 - 出力回復 - ロジット回帰 - プロビット回帰 - 単回帰 - Cox回帰 - リッジ回帰 - ステップワイズ回帰 - ステップワイズロジスティック回帰 - 回帰さ - 偏回帰