고차원 공간의 특징
본문 바로가기
카테고리 없음

고차원 공간의 특징

by e-easy 2023. 5. 20.

3차원 세계에서 개발된 기하학적 직관은 종종 더 높은 차원에서는 실패합니다. 정육면체와 구체의 고차원 유사체와 같은 단순한 물체의 많은 속성은 매우 직관에 반합니다. 아래에서 우리는 고차원 공간의 이상함을 전달하기 위해 이러한 속성 중 몇 가지만 논의합니다.

2차원에서 "원"이라는 단어를 사용하고 3차원에서 "구"라는 단어를 사용하는 데 익숙할 수 있습니다. 그러나 더 높은 차원에서는 일반적으로 구라는 단어를 사용합니다.
-구의 차원이 문맥에서 명확하지 않은 경우 구. 이 용어를 사용하여 원은 1차원 구에 대해 1구라고도 합니다. 3차원의 표준 구를 2구라고 합니다. 이것은 때때로 혼란을 야기합니다.
-구는 일반적으로 존재하는 것으로 생각됩니다.
- 차원 공간. 우리가 말할 때
-구, 값
개체가 살고 있는 차원이 아니라 개체에 로컬로 있는 구의 차원을 나타냅니다. 마찬가지로 정사각형, 표준 큐브 및 더 높은 차원의 유사체에 큐브라는 단어를 자주 사용합니다.

탈출 구체
한 변의 길이가 1인 정사각형을 생각해 보십시오. 정사각형의 각 모서리에 반지름이 1/2인 원을 배치하여 원이 정사각형의 가장자리를 덮도록 합니다. 그런 다음 사각형의 모서리에 있는 원을 만질 수 있을 만큼 충분히 큰 사각형의 중심에 있는 원을 고려합니다. 2차원에서 내부 원이 사각형에 완전히 포함되어 있음이 분명합니다.

그림 1: 사각형의 각 모서리에 반지름이 1/2인 원을 배치합니다. 내부 원은 모서리에 있는 원을 만질 수 있을 만큼 충분히 큽니다.
3차원에서도 같은 일을 할 수 있습니다. 단위 입방체의 각 모서리에 반지름이 1/2인 구를 놓고 다시 입방체의 가장자리를 덮습니다. 입방체의 중심에 중심이 있고 입방체 모서리에 있는 구에 접하는 구는 그림 2에서 빨간색으로 표시됩니다. 다시 3차원에서 내부 구가 입방체에 완전히 포함되어 있음을 알 수 있습니다.

더 높은 차원에서 일어나는 일을 이해하려면 차원 측면에서 내부 구의 반지름을 계산해야 합니다. 내부 구의 반지름은 입방체의 대각선 길이에서 모서리에 있는 구의 반지름을 뺀 것과 같습니다. 그림 3을 참조하십시오. 후자의 값은 치수에 관계없이 항상 1/2입니다. 대각선의 길이는 다음과 같이 계산할 수 있습니다.


 
따라서 내부 구의 반지름은
. 내부 구의 반지름이 치수와 함께 증가하고 있음을 확인하십시오!
 

2차원과 3차원에서 구는 위의 그림에서 본 것처럼 정육면체 내부에 있습니다. 그러나 4차원에서는 매우 흥미로운 일이 발생합니다. 내부 구의 반경은 정확히 1/2이며 내부 구가 입방체의 측면에 닿을 수 있을 만큼 충분히 큽니다! 5차원에서 내부 구의 반지름은 0.618034이고 구가 입방체 바깥쪽으로 찌르기 시작합니다! 10차원에서 반지름은 1.08114이고 구는 입방체의 바깥쪽을 아주 멀리 찌르고 있습니다!

높은 차원의 볼륨
원의 넓이
, 어디
반지름입니다. 원의 면적에 대한 방정식이 주어지면 구의 단면을 고려하여 구의 부피를 계산할 수 있습니다. 즉, 우리는 어떤 높이에서 평면과 구를 교차합니다.
구의 중심 위.

 

그림 6: 장치의 부피
-sphere는 다음과 같이 0이 됩니다.
증가!
유닛의 볼륨
-sphere는 다음과 같이 0이 됩니다.
자랍니다! 고차원 단위 구는 부피가 거의 없습니다! 부피는 1차원에서 5차원으로 증가하지만 6차원 이후에는 0을 향해 급격히 감소하기 시작합니다.

사실 우리가 키스 횟수를 정확히 아는 차원은 거의 없다. 대부분의 차원에서 우리는 키스 숫자에 대한 상한선과 하한선만 가지고 있으며 이러한 경계는 수천 개의 구체만큼 다양할 수 있습니다!

치수 하한 상한
1 2 2
2 6 6
삼 12 12
4 24 24
5 40 44
6 72 78
7 126 134
8 240 240
9 306 364
10 500 554
11 582 870
12 840 1357
13 1154 2069년
14 1606년 3183
15 2564 4866
16 4320 7355
17 5346 11072
18 7398 16572
19 10668 24812
20 17400 36764
21 27720 54584
22 49896 82340
23 93150 124416
24 196560 196560
 

표에서 볼 수 있듯이 우리는 정확히 1차원에서 4차원, 8차원, 24차원의 키스 숫자만 알 수 있습니다. 8차원 및 24차원 사례는 최적의 패킹을 제공하는 것으로 알려진 특수 격자 구조를 따릅니다. 8차원에서 키스 횟수는 240이며,
격자 . 24차원에서 키스 수는 거머리 격자 에 의해 주어진 196560입니다 . 그리고 더 이상 단일 영역이 아닙니다.
 

11 Comments

George Kamin 
5 years ago
OK, dimensions 8 and 24 have known nearest neighbor values. I find it strange that dimensions 10 and 26 in M-theory are 2 dimensions "larger" than 8 and 24. If we take " 2D slices" of a 10 or 26 order/mode tensor we get special projections in 8 and 24 order. Is there something special that we should see here?? Do you know what this strange difference of two means?? I can't believe this is coincidence.

Avatar
もふ 
5 years ago
I enjoyed reading this article. Below the figure 11, should the equation
x_1^2 + x_2^2 + \ldots x_d^2 = 1
be
x_1^2 + x_2^2 + \ldots x_(d+1)^2 = 1 ?

Avatar
Marc Khoury Mod もふ
5 years ago
Yes, it should. Nice catch, thank you.

Avatar
James Webber 
5 years ago
"The radius of the inner sphere is equal to the length of the diagonal of the cube minus the radius of the spheres at the corners." This should read "half the length of the diagonal", shouldn't it?

Avatar
Marc Khoury Mod James Webber
5 years ago edited
Technically yes it should. I intentionally abused language here because my original talk was for younger students and I didn't want them to worry about the details; I didn't want them thinking "wait why am I dividing by 2, so the length of the diagonal is this value, and then I divide it by 2, oh because the circle is centered at the center of the square, then why do I subtract 1/2." Instead if I just said diagonal and showed them the picture they all just got it, they knew exactly what I wanted to compute. With the aid of the Figure 3, I hope that everyone here understands what I meant as well. I mention abusing language in the aside at the bottom for this reason.

Avatar
James Webber  Marc Khoury
5 years ago
Ah, I didn't look at the figure while reading that section because it's a bit later. At that point it's clear you mean by "diagonal" but at the point I read the text it was not.

Avatar
Marc Khoury Mod James Webber
5 years ago edited
I've added a reference to the figure after the aforementioned line to make this point clearer.

Avatar
Maxim Liu 
5 years ago
Nice articles. Do you have more examples? From ML perspective, this definitely has implications when we try to identify patterns in high dimensional data space.

 
Avatar
Alex P  Maxim Liu
5 years ago
Can you elaborate? Is this related to the curse of dimensionality? (But I'm not sure how most of the volume lying near the surface relates).

 
Avatar
Marc Khoury Mod Maxim Liu
5 years ago
Thank you. I also considered talking about exotic structures ( https://en.wikipedia.org/wi..." target="_blank">https://en.wikipedia.org/wi... in R^4 and dimensionality reduction using Johnson–Lindenstrauss ( https://en.wikipedia.org/wi.... I decided against the former because the target audience for the talk was a group of high school students, and against the latter due to time constraints. The former is probably not well known to the ML community, but the latter is well known.

In ML, one topic that's often discussed is that of sampling guarantees necessary to learn a distribution. There is a related problem called manifold reconstruction where we develop algorithms that, given a sufficiently dense sample, provably output a set of simplices that capture the topology of a high dimensional manifold. However the known results about the sampling density that is sufficient for reconstructing a high dimensional manifold are prohibitively large. While there are important differences between these two problems, I can't help but think that many ML models are trained on datasets that are far too small to capture the distribution.

 

댓글