Алгебра свободных и скользящих векторов
Алгебра свободных и скользящих векторов
ОглавлениеПРЕДИСЛОВИЕВВЕДЕНИЕ ГЛАВА I. ВЕКТОРНАЯ АЛГЕБРА 2. Определение вектора. 3. Классификация векторов. 4. Равенство векторов. 5. Перенос вектора. 6. Нуль-вектор. 7. Компланарность и коллинеарность векторов. 8. Прямопротивоположные векторы. § 2. СЛОЖЕНИЕ И ВЫЧИТАНИЕ ВЕКТОРОВ 2. Сумма векторов. 3. Свойства суммы векторов. 4. Правила параллелограмма и параллелепипеда. 5. Разность двух векторов. 6. Свойства модуля суммы векторов. 2. Свойства произведения. 3. Деление вектора на число. 4. Единичные векторы. 5. Орт оси. 6. Коллинеарность двух векторов. § 4. РАЗЛОЖЕНИЕ ВЕКТОРОВ 3. Разложение вектора по трем другим векторам. 4. Разложение вектора по ортам базиса. § 5. ЛИНЕЙНАЯ ЗАВИСИМОСТЬ ВЕКТОРОВ 2. Условие коллинеарности двух векторов. 3. Условие компланарности трех векторов. 4. Линейная зависимость четырех векторов. § 6. ПРОЕКЦИИ ВЕКТОРА 2. Свойства составляющих вектора. 3. Проекция вектора на ось. 5. Угол между векторами. 6. Вычисление проекций вектора. 7. Теорема о проекции сумммы векторов. 8. Псевдоскаляры. § 7. СПОСОБЫ ЗАДАНИЯ ВЕКТОРА 2. Естественный способ задания свободного вектора. 3. Задание свободного вектора с помощью его проекций (координатный метод). 4. Связь между естественным и координатным способами задания вектора. 5. Задание несвободного вектора. 6. Задание скользящего вектора. 7. Некоторые приложения. § 8. СКАЛЯРНОЕ ПРОИЗВЕДЕНИЕ ДВУХ ВЕКТОРОВ 2. Свойства скалярного произведения. 3. Выражение скалярного произведения через проекции векторов. 4. Векторные уравнения геометрических мест. ![]() 5. Уравнение плоскости. 7. Изменение проекций вектора при преобразовании координат. 8. Другое определение вектора. § 9. ВЕКТОРНОЕ ПРОИЗВЕДЕНИЕ 2. Примеры из физики. 3. Способ Н. Е. Жуковского построения векторного произведения. 4. Свойства векторного произведения. 5. Разложение вектора-произведения по координатным ортам. 6. Условие коллинеарности двух векторов. 7. Тождество Лагранжа. 8. Полярные и аксиальные векторы. § 10. СЛОЖНЫЕ ПРОИЗВЕДЕНИЯ ВЕКТОРОВ 2. Двойное векторное произведение. 3. Разложение вектора по трем другим векторам. 5. Векторное произведение двух векторных произведений. 6. Произведение двух смешанных произведений. 7. Взаимные реперы. § 11. ВЕКТОРНЫЕ УРАВНЕНИЯ ПРЯМОЙ ЛИНИИ 2. Уравнение прямой, проходящей через две заданные точки. 3. Плюкерово уравнение прямой в пространстве. 4. Прямая как пересечение двух плоскостей. § 12. ИНВАРИАНТЫ ОТНОСИТЕЛЬНО ПРЕОБРАЗОВАНИЯ ОСЕЙ ГЛАВА II. АЛГЕБРА СКОЛЬЗЯЩИХ ВЕКТОРОВ§ 13. МОМЕНТ ВЕКТОРА ОТНОСИТЕЛЬНО ТОЧКИ И ОСИ. ЗАДАНИЕ СКОЛЬЗЯЩЕГО ВЕКТОРА 2. Момент вектора относительно точки. 4. Момент вектора относительно оси. 5. Задание скользящего вектора его проекциями и моментами относительно координатных осей. § 14. ГЛАВНЫЙ ВЕКТОР И ГЛАВНЫЙ МОМЕНТ СИСТЕМЫ ВЕКТОРОВ 2. Главный вектор системы векторов. 3. Главный момент системы векторов. 4. Система двух равнопротивоположных векторов. 5. Первая теорема Вариньона. 6. Изменение главного момента с изменением полюса. 7. Инварианты системы векторов. 8. Минимальный момент и центральная ось системы. 9. Распределение главных моментов в пространстве. 10. Понятие о винте. 11. Винт системы векторов. § 15. ЭКВИВАЛЕНТНЫЕ СИСТЕМЫ ВЕКТОРОВ 2. Основные определения и аксиомы. § 17. ЭКВИВАЛЕНТНЫЕ СИСТЕМЫ СКОЛЬЗЯЩИХ ВЕКТОРОВ 2. Приведение произвольной системы скользящих векторов к системе двух векторов (геометрическое решение). § 18. УСЛОВИЯ ЭКВИВАЛЕНТНОСТИ ДВУХ СИСТЕМ СКОЛЬЗЯЩИХ ВЕКТОРОВ 2. Условия эквивалентности двух систем скользящих векторов. 3. Преобразование эквивалентных систем. § 19. ТЕОРИЯ ПАР 1. Пара векторов и ее момент. 2. Свойства пар. 3. Винт § 20. ПРИВЕДЕНИЕ СИСТЕМЫ СКОЛЬЗЯЩИХ ВЕКТОРОВ К ПРОСТЕЙШЕМУ ВИДУ 2. Приведение системы скользящих векторов к системе двух векторов (аналитическое решение). 4. Пример из кинематики. 5. Приведение системы скользящих векторов к винту. 6. Примеры. 7. Уравнения равновесия векторов. 8. Вторая теорема Вариньона. § 21. ИССЛЕДОВАНИЕ ЧАСТНЫХ СЛУЧАЕВ 2. Плоская система скользящих векторов. 3. Система параллельных скользящих векторов. 4. Центр системы параллельных векторов. |
| 1 | |
| 00:00:13,210 —> 00:00:18,935 | |
| Мы проиллюстрировали метод наименьших | |
| квадратов для множественной регрессии, | |
когда у нас много регрессоров.![]() | |
| И попутно мы обнаружили следующие факты, | |
| что если в модель включён свободный член, | |
| регрессоры, то есть существует β₁, | |
| то, соответственно, среди столбцов матрицы | |
| X большое будет слева столбик из единичек, | |
| и в этом случае наши | |
| оценки метода наименьших | |
| квадратов будут обладать | |
| следующими свойствами, | |
| а именно: сумма ошибок прогнозов, | |
| сумма ε_i с крышкой будет равняться нулю, | |
| сумма y будет равняться сумме | |
| прогнозных y, или, другими словами, | |
| среднее значение прогноза будет равняться | |
| среднему значению наблюдаемой переменной, | |
| а также будет присутствовать | |
| на рисунке мы увидели это | |
как теорему Пифагора.![]() | |
| Наличие последнего разложения общей | |
| суммы квадратов на две составляющие | |
| RRS плюс ESS позволяет придумать | |
| простой показатель качества модели, | |
| а именно R-квадрат, который умными словами | |
| называется коэффициент детерминации. | |
| Мы знаем, что чем прогнозы точнее | |
| похожи на настоящие Y, | |
| тем меньше будут ошибки прогнозов | |
| ε с крышкой и тем меньше будет сумма | |
квадратов ошибок прогнозов RSS.![]() | |
| Соответственно, отношение ESS к TSS, | |
| или R-квадрат, | |
| будет примерно равно единичке, если RSS, | |
| сумма квадратов ошибок, будет у нуля. | |
| Соответственно, мы получили коэффициент | |
| R-квадрат, коэффициент детерминации, | |
| который всегда лежит от 0 до 1, | |
| и значения, близкие к 0, | |
| означают, что сумма квадратов ошибок, | |
| сумма квадратов остатков очень большая, | |
| а значения R-квадрат, | |
| близкие к 1, говорят о том, | |
| что сумма квадратов остатков, | |
сумма квадратов ошибок прогноза маленькая.![]() | |
| Или, другими словами, | |
| R-квадрат — это есть доля объяснённого | |
| разброса y к общему разбросу, | |
| общей сумме квадратов. | |
| Также этот коэффициент R-квадрат | |
| можно интерпретировать по-другому, | |
| не только как объяснённую долю разброса y, | |
| но и как квадрат выборочной корреляции, | |
| а именно: R-квадрат — это есть квадрат | |
| выборочного коэффициента корреляции, | |
| который равен дроби: в числителе сумма y_i | |
| минус y среднее, помножить на y_i с крышкой | |
| минус y среднее, и в знаменателе корни | |
из TSS помножить на корень из ESS.![]() | |
| Оказывается, доказательство | |
| этого факта очень простое. | |
| Дело в том, что выборочный коэффициент | |
| корреляции — это ни что иное, | |
| как косинус угла между некоторыми двумя | |
| векторами, что мы сейчас и увидим. | |
| А вот теперь как раз нам | |
| потребуется четвёртый факт, | |
| что ESS к TSS — это | |
| косинус квадрат угла φ. | |
| Как мы выяснили, показатель детерминации, | |
| коэффициент — это есть | |
отношение ESS к TSS.![]() | |
| То есть он несёт тот смысл, | |
| что это есть доля объяснённого | |
| разброса переменной y в | |
| общем разбросе переменной y. | |
| Соответственно, из предыдущих формул | |
| следует, что этот показатель лежит от 0 до | |
| 1, и R-квадрат — это | |
| косинус квадрат угла φ. | |
| Но, оказывается, | |
| для косинуса у нас есть и другая формула. | |
| Из-за того, что скалярное произведение | |
| любых двух векторов A и B | |
| — это есть длина вектора | |
| A помножить на длину вектора | |
| B на косинус угла между ними, | |
| то из этого факта следует | |
| выражение для косинуса, | |
| а именно: косинус между | |
| любыми двумя векторами — это | |
| есть скалярное произведение | |
| этих двух векторов делить | |
| на длину одного вектора | |
на длину другого вектора.![]() | |
| Соответственно, что в нашем случае | |
| будет являться R-квадратом, | |
| или косинусом квадрата между какими | |
| двумя векторами является R-квадрат? | |
| Косинусом какого угла он является? | |
| Угол φ — это угол между AB и BC. | |
| Соответственно, у нас вектор AB с | |
| точностью до направления можно задать | |
| как y минус y | |
| среднее помножить на вектор из единичек. | |
Соответственно. .. | |
| Это на самом деле, конечно, BA. | |
| А вектор, | |
| вектор BC можно задать как вектор | |
| y с крышкой минус y среднее | |
| помножить на вектор из единичек. | |
| Это вектор BC. | |
| Соответственно, нам нужен косинус | |
| угла между этими векторами. | |
| Соответственно, что мы получим, | |
| когда посчитаем длину первого | |
| вектора и длину второго вектора? | |
| У нас получается, | |
| что скалярное произведение | |
| BC c BA — | |
| это есть скалярное произведение вектора | |
| y минус y средняя помножить | |
| на вектор из единичек, | |
| y с крышкой минус y средняя | |
помножить на вектор из единичек.![]() | |
| Соответственно, это есть сумма. | |
| Поскольку с другой стороны скалярное | |
| произведение можно определить как, | |
| скалярное произведение a на b можно | |
| определить как сумму a_i на b_i, | |
| то нам просто нужно попарно | |
| перемножить компоненты этих векторов. | |
| Соответственно, у нас получится: первая | |
| компонента этого вектора — это y_1 минус y79 | |
| 00:06:43,502 —> 00:06:48,930 | |
| средняя, первая компонента второго вектора | |
— это y с крышкой первая минус y средняя.![]() | |
| Соответственно, я беру | |
| y_i минус y средняя и | |
| перемножаю на y_i с | |
| крышкой минус y средняя. | |
| Это я нашёл числитель. | |
| Соответственно, как выглядит знаменатель? | |
| В знаменателе у нас | |
| находится длина вектора BC, | |
| это корень квадратный из суммы | |
| квадратов его компонент, | |
| то есть это корень квадратный из суммы, | |
| BC это y с крышкой, | |
| соответственно: y_i с крышкой | |
минус y средняя в квадрате.![]() | |
| Ну, а соответственно, | |
| длина вектора BA — это | |
| есть корень из суммы | |
| квадратов его компонент, | |
| то есть корень из суммы y_i | |
| минус y средняя в квадрате. | |
| Соответственно, мы получили ещё одну | |
| формулу для коэффициента R-квадрат, | |
| а именно: R-квадрат | |
| равняется — в числителе сумма y_i минус | |
| y средняя помножить на y_i | |
| с крышкой минус y средняя, | |
| деленное на корень квадратный | |
| из сумма y_i минус y средняя в | |
| квадрате на сумма y_i с крышкой | |
минус y средняя в квадрате.![]() | |
| А, с другой стороны, | |
| что это такое по сути? | |
| Здесь можно узнать формулу выборочной | |
| корреляции между двумя векторами, | |
| а именно: это выборочная корреляция, | |
| обозначу её sCorr (sample | |
| correlation — выборочная | |
| корреляция), между | |
| векторами y и y с крышкой. | |
| И всё, конечно, нужно взять в квадрат, | |
| поскольку я считал косинус угла, | |
а R-квадрат — это косинус квадрат угла.![]() | |
| Таким образом, | |
| мы получили две интерпретации для | |
| показателя в качестве регрессии. | |
| С одной стороны, R-квадрат — это | |
| доля объяснённой дисперсии y, доля | |
| объяснённого разброса y: это объяснённый | |
| разброс y делить на общий разброс y. | |
| А с другой стороны, | |
| R-квадрат — это выборочна корреляция между | |
| прогнозами и настоящим y, | |
взятое в квадрат.![]() | |
| Чем R-квадрат выше, | |
| тем больше y с крышкой похож на y, | |
| чем чем R-квадрат выше, | |
| тем выше доля объяснённой дисперсии. | |
Возведение вектора в квадрат? — Математический стек Exchange
спросил
Изменено 6 лет, 9 месяцев назад
Просмотрено 100 тысяч раз
$\begingroup$
Итак, это базовый. И должно быть довольно быстро. Допустим, у меня есть вектор $\vec{r}$: 92$, когда понятно, что ты не имеешь в виду
$$
{\ bf r} {\ bf r} = \ sum_ {i, j} r_i r_j {\ bf e} _i {\ bf e} _j
$$
что равно вполне допустимой величине [1].
Что касается ${\bf r} = {\bf x} + {\bf y} + {\bf z}$, $$ \begin{выравнивание} {\bf r} \cdot {\bf r} &=& {\bf x} \cdot {\bf x} + {\bf x} \cdot {\bf y} + {\bf x} \cdot {\ bf z} + {\bf y} \cdot {\bf x} + {\bf y} \cdot {\bf y} + {\bf y} \cdot {\bf z} + {\bf z} \cdot {\bf x} + {\bf z} \cdot {\bf y} + {\bf z} \cdot {\bf z} \\ &=& {\bf x} \cdot {\bf x} + {\bf y} \cdot {\bf y} + {\bf z} \cdot {\bf z} + 2\left( {\bf x } \cdot {\bf y} + {\bf x} \cdot {\bf z} + {\bf y} \cdot {\bf z}\right) \end{эквнаррай} $$ равно ${\bf x} \cdot {\bf x} + {\bf y} \cdot {\bf y} + {\bf z} \cdot {\bf z}$ для всех $\bf x$, $ \bf y$, $\bf z$ тогда и только тогда, когда ${\bf x} \cdot {\bf y} + {\bf x} \cdot {\bf z} + {\bf y} \cdot {\bf z} = 0$ — особый случай, когда ${\bf x} \cdot {\bf y} = {\bf x} \cdot {\bf z} = {\bf y} \cdot {\bf z} = 0$. 93 {\ bf r} \ \ rho \ слева ({\ bf r} \ справа) \ слева [\ слева ({\ bf r} \ cdot {\ bf r} \ справа) {\ bf I} — {\ bf г}{\бф г}\право] $$ где $$ {\bf I} = \sum_{i,j} \delta_{ij} {\bf e}_i {\bf e}_j $$
$\endgroup$
4
$\begingroup$
Почему бы вам не разработать расширение самостоятельно.
2 + 2 \left((\vec{x} \cdot\vec{z}) +(\vec{y}\cdot\vec{z}) + (\vec{x} \cdot\vec{y}) \ справа)$$ 92$$
$\endgroup$
$\begingroup$
Существует два основных способа умножения вектора, скалярного произведения, как показано в ссылке Скалярное произведение, которое дает скаляр, независимо от того, умножаете ли вы A.B или возводите его в квадрат, A.A.
Или у вас может быть перекрестное произведение, то есть A X B, которое дает вам другой вектор, перпендикулярный обоим перекрестным произведениям.
Причина, по которой существуют два разных способа умножения векторов, заключается в том, что они имеют дело с различными физическими ситуациями, поэтому скалярное произведение может использоваться для работы, которая является скалярной, F.D, а векторное произведение используется для крутящего момента, скажем, или углового скорости, которые являются векторами.
$\endgroup$
4
microbenchmark — Вычислить матрицу квадрата суммы в R
спросил
Изменено 1 год, 5 месяцев назад
Просмотрено 112 раз
92Есть ли в r функция, позволяющая сделать это без ручного написания?
Большое спасибо за помощь.
- r
- микротест
2
Все, что вам нужно, это внешний продукт:
v <- 1:5 внешний (v, v, '*') # [1] [2] [3] [4] [5] #[1,] 1 2 3 4 5 #[2,] 2 4 6 8 10 #[3,] 3 6 9 12 15 #[4,] 4 8 12 16 20 #[5,] 5 10 15 20 25
Сравнение различных подходов:
библиотека (микротестирование)
библиотека (ggplot2)
v <- 1:1000
mbm <- microbenchmark("outer" = { external(v, v, '*') },
"matprod" = {v%*%t(v)},
"tcrossprod" = {tcrossprod(v)})
автоплот (мбм)
На приведенном выше рисунке показано, что external() и прямое матричное произведение более эффективны, чем tcrossprod()
1
v = 1:4 tcrossprod (v) #> [1] [2] [3] [4] #> [1,] 1 2 3 4 #> [2,] 2 4 6 8 #> [3,] 3 6 9 12 #> [4,] 4 8 12 16
Создано 04.10.2021 в пакете reprex (v2.



АЛГЕБРА СКОЛЬЗЯЩИХ ВЕКТОРОВ







..




