"家のクラスタ"の翻訳 英語に:
辞書 日本-英語
家のクラスタ - 翻訳 :
例 (レビューされていない外部ソース)
ソーシャルネットワークのクラスタ係数は | So there's a fair amount of interconnection between a node's neighbors. |
クラスタ係数の場合 | So just getting it correct to a couple of digits is probably sufficient. |
クラスタ順序ディザ | Cluster ordered dither |
クラスタ係数の式です | So we'd like to have a way of getting a pretty good answer in time a lot less than this. |
ここにあるクラスタとここにあるクラスタです | And the answer is 2. |
最終結果はK個のクラスタではなくて K 1個のクラスタとなる 時々 ほんとうにK個のクラスタが | And if you do that, you end up with K minus one clusters instead of k clusters. |
クラスタ係数です | Next I want to focus for a little while on the notion of a clustering coefficient. |
各ノードのクラスタ係数の平均ですので このグラフのクラスタ係数を求めるには | I am going to say that the clustering coefficient for graph is just the average of the clustering coefficients of the nodes in the graph. |
コンピュータのクラスタなりデータセンターなりに | I actually have some friends who work on this too. |
k means法はクラスタの定数から予測をします クラスタ数は2とします | Suppose we're given the following data points in a 2 dimensional space. |
2つのクラスタを学習するとします ここのクラスタとここのクラスタです これまでに学んだ内容を踏まえたクイズです | Suppose you are given data like this, and you wish to learn that there's 2 clusters a cluster over here and a cluster over here. |
何個のクラスタが見えますか | And second, to narrow this down, it feels that there are clusters of data the way I do it. |
最初はクラスタの割り付けステップ | K Means is an iterative algorithm and it does two things. |
イコールだ クラスタ割り振りのステップで | C6 equals to and similarly well c10 equals, too, right? |
クラスタ係数が表しているのは | let's go through how this is often defined. |
右側は緑のクラスタです ステップ3 データ点とクラスタの重心点の間には 関係があると仮定し | All the data points on the left correspond to the red cluster, and the ones on the right to the green cluster. |
クラスタ重心の一つ クラスタ重心2としよう それがトレーニング手本を持ってるとして | So as a concrete example, let's say that one of my cluster centroids, let's say cluster centroid two, has training examples, you know, 1, 5, 6, and 10 assigned to it. |
これはクラスタ係数の計算式です | The last question asked, what is the maximum clustering coefficient for a node in B? |
これはクラスタの重心と呼ばれる | I'm going to do. The first step is to randomly initialize two points, called the cluster centroids. |
これがサンプルとクラスタ重心の距離で | Next is lower case k. |
前の図だと クラスタ重心は 赤のバッテンと | And so in the earlier diagram, the cluster centroids corresponded to the |
クラスタの重心は空間内のデータ点を表し | K means estimates for a fixed number of k. Here k 2. |
緑のクラスタには2点以上のデータがあり | So the optimal cluster center would be the halfway point in the middle. |
これがこのクラスタの中心になります | It's likely somewhere over here where I drew the red dot. |
クラスタ重心を以下のように動かし | So, let me do that now. |
クラスタの中心を見つけることができます EMアルゴリズムは確率的な汎化で クラスタを見つけ | K means is a very simple almost binary algorithm that allows you to find cluster centers. |
クラスタの中心の数を増やすべきではありません クラスタの中心の数は既に調整してあるので | If we use k means, we shouldn't increase the number of cluster centers. |
クラスタ係数を算出するコードです ノードvに関してクラスタ係数を算出するには | So just to remind you, here's some code for computing the clustering coefficient of a graph with respect to a particular node v. |
赤で描いた2つのクラスタの中心があり | Suppose we are giving you 4 data points, as indicated by those circles. |
各点に2つのクラスタ重心のどちらかを | I'm going to color them either red or blue. |
ローカルスーパークラスタに関連する2つのクラスタとしては | It is not the perfectly flat system like the disk of the Milky Way, but it is flat. |
fのクラスタ係数が一番低いと思えば | Order them from the lowest clustering coefficient to the highest clustering coefficient. |
物理セクタの代わりに クラスタ使うなんて | Who formatted this thing? And they used clusters instead of physical sectors for allocations, |
これらを赤いノードのクラスタ係数で 並べ替えてください クラスタ係数の低いものから順に並べます | For this problem we have 6 graphs, and we want you to order them with a clustering coefficient of the red node of each graph. |
これでどのノードVのクラスタ係数も計算でき | Two times the number of links divided by length of neighbors times length of neighbors minus one. |
クラスタの中心の数を表すKを求めるため | Both are prone to local minima. |
豊富な銀河のクラスタの回りを回っている | So, if you could see stars as well, they would look somewhat like this but more condensed. |
クラスタ重心と呼ばれる物だ そしてそれが2つなのは データを2つのクラスタにグループ分けしたいから | So, these two crosses here, these are called the Cluster Centroids and I have two of them because I want to group my data into two clusters. |
各クラスタ中心の事前確率を求めるには | In the M step we now figure out where these parameters should have been. |
最小化する過程でクラスタの数が増えると | This one over here, we have a constant cost per cluster is new. |
ステップ2 クラスタがランダムに置かれていても | Step 1 Guess cluster centers at random, as shown over here with the 2 stars. |
異なるクラスタがまとまっています | Let me illustrate this once again with the data set that has a different spectral clustering than a conventional clustering. |
特定のクラスタが重力レンズになっている写真だ これらの青い アーチや弧は 背後の銀河がこのクラスタによってレンズされ | These are Hubble Space Telescope images of a particular cluster, that serves as a gravitational lens. |
このあたりとこのあたりに クラスタがあります | So the correct answer for the second question is 2. |
2つのクラスタの重心点C₁とC₂を与えられた時 | So here's a first quiz for k means. |
関連検索 : 家庭用クラスタ - クラスタの - のクラスタ - クラスタ - レプリケーションのクラスタ - クラスタ内の - 村のクラスタ - 星のクラスタ - クラスタのコンセプト - 車のクラスタ - ヨーロッパのクラスタ - ポイントのクラスタ - ライトのクラスタ - プロジェクトのクラスタ