Translation of "multiple logistic regression" to Japanese language:


  Dictionary English-Japanese

Logistic - translation : Multiple - translation : Multiple logistic regression - translation : Regression - translation :

  Examples (External sources, not reviewed)

logistic regression.
y 1の時と
logistic regression.
それは前回はマイナスの符号を
logistic regression with a
適用していく というのが考えられる
Let's start talking about logistic regression.
このビデオでは
light of logistic regression, the Support
このコスト関数を最小化する
logistic regression and we're seeing what the mathematical formula is defining the hypothesis for logistic regression.
ロジスティック回帰の仮説が 定義されるかを見ている 次のビデオでは
Today, we'll see how multiple regression, multiple regression works where we have multiple predictors.
回帰は予測変数が複数の時に使えます それはもうちょっと複雑になります 解釈の点でも 係数のラッシュの点でも
And then, we can have multiple predictors and multiple regression coefficients.
ここでもトリックは 複数回帰係数が
We, just ran a multiple regression analysis.
だが標準化されていない回帰係数しか得ていない
So, for logistic regression, we had two terms to our objective function.
一つ目の項は トレーニングセットから来る
And what's new is doing multiple regression analysis, asking for standardized regression coefficients.
そうコメントにもある 回帰分析をやって
How do we do that in multiple regression?
それをプロダクト 積 の項と呼ぼう
Particularly when we do things like multiple regression.
ではほんとの基礎から始める 行列ってなんだ
That's the beauty of doing multiple regression analysis.
我々がやってる事はつまり 結果を説明するという点でこららの予測変数との線形の関係の内
We're just gonna do a multiple regression analysis.
そして他の私のスクリプトと同様に 最初のコードは
At first we've covered multiple regression analysis sort of conceptually, and how to interpret regression coefficients when there are multiple predictors in our regression equation.
そこで回帰方程式に複数回帰係数がある時に それをどう解釈するかを学んだ そして行列の代数について見ていき 一つの方程式で複数の予測変数の回帰係数を一度に
We already have linear regression and we have logistic regression, so why do we need, you know, neural networks?
ロジスティック回帰もある では何故 ニューラルネットワークなんて物が必要なんだ ニューラルネットワークの議論を
Now let's think about what we will like the logistic regression to do.
手本があって y 1とする
Could we use Naive Bayes, k Nearest Neighbors, Support Vector Machines, Logistic Regression.
またUNIXのsortコマンドやgzipコマンドは 使えるでしょうか
You can do a multiple regression analysis by hand.
もしやる事になったら ほんとに退屈だろう でも今すぐでも出来る
Well, let's see that in a multiple regression analysis.
回帰を実行して 両方の予測変数を入れた方程式と比較出来るように
logistic regression, I'm going to modify this a little bit, and make the hypothesis
これをちょっと変更して 仮説をgの シータ転置 x と する ここでgは
Logistic Regression is actually a classification algorithm that we apply to settings where the
分類アルゴリズムで Yが離散的な値の時に 使う物だ 1 0とか0 1とか
And today, I'd like to introduce you to multiple regression.
前のレクチャーで 単回帰をやりました それは回帰方程式の中に一つの予測変数しか
So, I'll just summarize the multiple regression equation as follows.
切片はまだある それは相変わらずXが0の時のYの予測値です
Then, we can apply that to the multiple regression example.
それら重回帰係数をどう算出するかを
To see how we get those. Multiple, regression coefficients estimated.
見る為に 全部同時に 一度の解析を
But first lets just start with basic multiple regression analysis.
それをセグメント1でやる このセグメントの目標は
How about if we were doing a classification problem and say using logistic regression instead.
代わりに例えばロジスティック回帰を使っていた場合はどうだろう その場合でも ロジスティック回帰でのトレーニングとテストの
A plus B. So for logistic regression if we send a very large value of
とても大きなラムダの値を用いると それの意味する所はBに とても大きな重みを付与する という事だ
So, simple logistic regression together with adding in maybe the quadratic or the cubic features
2次や 3次のフィーチャーを 加えたもの これは n が大きい時に
In the next video we'll start working out the details of the logistic regression algorithm.
ロジスティック回帰のアルゴリズムの 詳細を見ていきます
So the main topic of this segment is just again estimation of regression coefficients in multiple regression.
回帰での回帰係数の計算 ここでも単回帰の時と同じように最小二乗法やってるんだが
And today we're going to do multiple regression analysis in R.
前回のレクチャーでは 重回帰を見ていった
You'll have to write a script that does multiple regression analysis.
最初にやるのは 単回帰をただ実行する
For such situations there is a model called logistic regression, which uses a slightly more complicated model than linear regression, which goes as follows .
これは線形回帰より複雑なモデルで fをxの線形関数とすると
That's the term that a single training example contributes to the overall objective function for logistic regression.
ロジスティック回帰の目的関数全体への 今 この仮説の定義の式を取り ここに
If you want to apply logistic regression to this problem, one thing you could do is apply
適用しよう とすると たくさんの非線形のフィーチャーに対して ロジスティック回帰
Regression co efficients, in a multiple regression, using matrix algebra and last week, you didn't even know matrix algebra.
先週には行列の代数が何なのかすら知らなかったのに これって凄い
So in the first segment, we'll run a first multiple regression analysis.
次のセグメントでも同じ分析を行うが 今度は
last segment demonstrating the use of multiple regression analysis to test mediation.
今回はパス分析と言われている方法でそれをやってみる
So, a better approach would be to have multiple models, multiple regression models, and test them against each other.
帰無仮説に対して自分のモデル一つ検定するよりも だから私には3つの代替案がある
And that's called the support vector machine, and compared to both the logistic regression and neural networks, the
ロジスティック回帰やニューラルネットワークと比べて サポートベクターマシーン
line similar to logistic regression but this is going to be the straight line in this posh inning.
直線 つまり マゼンタで今描いた 曲線 紫というかマゼンダで描いた曲線
Where instead of having basically just one logistic regression output unit, we may instead have K of them.
単に一つのロジスティック回帰の出力ユニットしか無いのではなく その代わりにK個のユニットがある訳だ これがそのコスト関数となる

 

Related searches : Logistic Regression - Multiple Regression - Stepwise Logistic Regression - Ordinal Logistic Regression - Logistic Regression Model - Binary Logistic Regression - Conditional Logistic Regression - Linear Multiple Regression - Multiple Linear Regression - Multiple Regression Model - Multivariate Regression - Regression Equation