Site Loader

Алгебра свободных и скользящих векторов

Алгебра свободных и скользящих векторов
  

Меркин Д.Р. Алгебра свободных и скользящих векторов. М: изд-во «Физматгиз», 1962 — 165 с.

В книге дается подробное изложение алгебры свободных и скользящих векторов. Содержание первой главы соответствует в основном программе по векторной алгебре курса высшей математики втузов. Во второй главе рассматривается теория преобразования системы скользящих векторов и приведения их к простейшему виду. Эта теория имеет важное значение в различных вопросах физики и техники; она может рассматриваться также, как вводная глава винтового исчисления.

В книге большое внимание уделено примерам и разъяснению некоторых деталей и особенностей векторного исчисления, весьма важных в приложениях.

Книга может служить учебным пособием для студентов и преподавателей втузов и университетов. Она рассчитана также на инженеров, желающих повысить свою теоретическую подготовку.



Оглавление

ПРЕДИСЛОВИЕ
ВВЕДЕНИЕ
ГЛАВА I. ВЕКТОРНАЯ АЛГЕБРА
2. Определение вектора.
3. Классификация векторов.
4. Равенство векторов.
5. Перенос вектора.
6. Нуль-вектор.
7. Компланарность и коллинеарность векторов.
8. Прямопротивоположные векторы.
§ 2. СЛОЖЕНИЕ И ВЫЧИТАНИЕ ВЕКТОРОВ
2. Сумма векторов.
3. Свойства суммы векторов.
4. Правила параллелограмма и параллелепипеда.
5. Разность двух векторов.
6. Свойства модуля суммы векторов.
§ 3. УМНОЖЕНИЕ И ДЕЛЕНИЕ ВЕКТОРА НА ЧИСЛО
2. Свойства произведения.
3. Деление вектора на число.
4. Единичные векторы.
5. Орт оси.
6. Коллинеарность двух векторов.
§ 4. РАЗЛОЖЕНИЕ ВЕКТОРОВ
3. Разложение вектора по трем другим векторам.
4. Разложение вектора по ортам базиса.
§ 5. ЛИНЕЙНАЯ ЗАВИСИМОСТЬ ВЕКТОРОВ
2. Условие коллинеарности двух векторов.
3. Условие компланарности трех векторов.
4. Линейная зависимость четырех векторов.
§ 6. ПРОЕКЦИИ ВЕКТОРА
2. Свойства составляющих вектора.
3. Проекция вектора на ось.
4. Свойства проекций.
5. Угол между векторами.
6. Вычисление проекций вектора.
7. Теорема о проекции сумммы векторов.
8. Псевдоскаляры.
§ 7. СПОСОБЫ ЗАДАНИЯ ВЕКТОРА
2. Естественный способ задания свободного вектора.
3. Задание свободного вектора с помощью его проекций (координатный метод).
4. Связь между естественным и координатным способами задания вектора.
5. Задание несвободного вектора.
6. Задание скользящего вектора.
7. Некоторые приложения.
§ 8. СКАЛЯРНОЕ ПРОИЗВЕДЕНИЕ ДВУХ ВЕКТОРОВ
2. Свойства скалярного произведения.
3. Выражение скалярного произведения через проекции векторов.
4. Векторные уравнения геометрических мест.

5. Уравнение плоскости.
7. Изменение проекций вектора при преобразовании координат.
8. Другое определение вектора.
§ 9. ВЕКТОРНОЕ ПРОИЗВЕДЕНИЕ
2. Примеры из физики.
3. Способ Н. Е. Жуковского построения векторного произведения.
4. Свойства векторного произведения.
5. Разложение вектора-произведения по координатным ортам.
6. Условие коллинеарности двух векторов.
7. Тождество Лагранжа.
8. Полярные и аксиальные векторы.
§ 10. СЛОЖНЫЕ ПРОИЗВЕДЕНИЯ ВЕКТОРОВ
2. Двойное векторное произведение.
3. Разложение вектора по трем другим векторам.
4. Скалярное произведение двух векторных произведений.
5. Векторное произведение двух векторных произведений.
6. Произведение двух смешанных произведений.
7. Взаимные реперы.
§ 11. ВЕКТОРНЫЕ УРАВНЕНИЯ ПРЯМОЙ ЛИНИИ
2. Уравнение прямой, проходящей через две заданные точки.
3. Плюкерово уравнение прямой в пространстве.
4. Прямая как пересечение двух плоскостей.
§ 12. ИНВАРИАНТЫ ОТНОСИТЕЛЬНО ПРЕОБРАЗОВАНИЯ ОСЕЙ
ГЛАВА II. АЛГЕБРА СКОЛЬЗЯЩИХ ВЕКТОРОВ
§ 13. МОМЕНТ ВЕКТОРА ОТНОСИТЕЛЬНО ТОЧКИ И ОСИ. ЗАДАНИЕ СКОЛЬЗЯЩЕГО ВЕКТОРА
2. Момент вектора относительно точки.
3. Проекции момента.
4. Момент вектора относительно оси.
5. Задание скользящего вектора его проекциями и моментами относительно координатных осей.
§ 14. ГЛАВНЫЙ ВЕКТОР И ГЛАВНЫЙ МОМЕНТ СИСТЕМЫ ВЕКТОРОВ
2. Главный вектор системы векторов.
3. Главный момент системы векторов.
4. Система двух равнопротивоположных векторов.
5. Первая теорема Вариньона.
6. Изменение главного момента с изменением полюса.
7. Инварианты системы векторов.
8. Минимальный момент и центральная ось системы.
9. Распределение главных моментов в пространстве.
10. Понятие о винте.
11. Винт системы векторов.
§ 15. ЭКВИВАЛЕНТНЫЕ СИСТЕМЫ ВЕКТОРОВ
2. Основные определения и аксиомы.
§ 16. ПРИВЕДЕНИЕ СИСТЕМЫ СВОБОДНЫХ ВЕКТОРОВ К ПРОСТЕЙШЕМУ ВИДУ
§ 17. ЭКВИВАЛЕНТНЫЕ СИСТЕМЫ СКОЛЬЗЯЩИХ ВЕКТОРОВ
2. Приведение произвольной системы скользящих векторов к системе двух векторов (геометрическое решение).
§ 18. УСЛОВИЯ ЭКВИВАЛЕНТНОСТИ ДВУХ СИСТЕМ СКОЛЬЗЯЩИХ ВЕКТОРОВ
2. Условия эквивалентности двух систем скользящих векторов.
3. Преобразование эквивалентных систем.
§ 19. ТЕОРИЯ ПАР
1. Пара векторов и ее момент.
2. Свойства пар.
3. Винт
§ 20. ПРИВЕДЕНИЕ СИСТЕМЫ СКОЛЬЗЯЩИХ ВЕКТОРОВ К ПРОСТЕЙШЕМУ ВИДУ
2. Приведение системы скользящих векторов к системе двух векторов (аналитическое решение).
3. Приведение системы скользящих векторов к вектору и паре.
4. Пример из кинематики.
5. Приведение системы скользящих векторов к винту.
6. Примеры.
7. Уравнения равновесия векторов.
8. Вторая теорема Вариньона.
§ 21. ИССЛЕДОВАНИЕ ЧАСТНЫХ СЛУЧАЕВ
2. Плоская система скользящих векторов.
3. Система параллельных скользящих векторов.
4. Центр системы параллельных векторов.

coursera_metrics/10_1.1.9.___9-52.txt at master · bdemeshev/coursera_metrics · GitHub

1
00:00:13,210 —> 00:00:18,935
Мы проиллюстрировали метод наименьших
квадратов для множественной регрессии,
когда у нас много регрессоров.
И попутно мы обнаружили следующие факты,
что если в модель включён свободный член,
то есть y_i равняется β₁ плюс объясняющие
регрессоры, то есть существует β₁,
то, соответственно, среди столбцов матрицы
X большое будет слева столбик из единичек,
и в этом случае наши
оценки метода наименьших
квадратов будут обладать
следующими свойствами,
а именно: сумма ошибок прогнозов,
сумма ε_i с крышкой будет равняться нулю,
сумма y будет равняться сумме
прогнозных y, или, другими словами,
среднее значение прогноза будет равняться
среднему значению наблюдаемой переменной,
а также будет присутствовать
разложение TSS = RSS + ESS,
на рисунке мы увидели это
как теорему Пифагора.
Наличие последнего разложения общей
суммы квадратов на две составляющие
RRS плюс ESS позволяет придумать
простой показатель качества модели,
а именно R-квадрат, который умными словами
называется коэффициент детерминации.
Мы знаем, что чем прогнозы точнее
похожи на настоящие Y,
тем меньше будут ошибки прогнозов
ε с крышкой и тем меньше будет сумма
квадратов ошибок прогнозов RSS.
Соответственно, отношение ESS к TSS,
или R-квадрат,
будет примерно равно единичке, если RSS,
сумма квадратов ошибок, будет у нуля.
Соответственно, мы получили коэффициент
R-квадрат, коэффициент детерминации,
который всегда лежит от 0 до 1,
и значения, близкие к 0,
означают, что сумма квадратов ошибок,
сумма квадратов остатков очень большая,
а значения R-квадрат,
близкие к 1, говорят о том,
что сумма квадратов остатков,
сумма квадратов ошибок прогноза маленькая.
Или, другими словами,
R-квадрат — это есть доля объяснённого
разброса y к общему разбросу,
общей сумме квадратов.
Также этот коэффициент R-квадрат
можно интерпретировать по-другому,
не только как объяснённую долю разброса y,
но и как квадрат выборочной корреляции,
а именно: R-квадрат — это есть квадрат
выборочного коэффициента корреляции,
который равен дроби: в числителе сумма y_i
минус y среднее, помножить на y_i с крышкой
минус y среднее, и в знаменателе корни
из TSS помножить на корень из ESS.
Оказывается, доказательство
этого факта очень простое.
Дело в том, что выборочный коэффициент
корреляции — это ни что иное,
как косинус угла между некоторыми двумя
векторами, что мы сейчас и увидим.
А вот теперь как раз нам
потребуется четвёртый факт,
что ESS к TSS — это
косинус квадрат угла φ.
Как мы выяснили, показатель детерминации,
коэффициент — это есть
отношение ESS к TSS.
То есть он несёт тот смысл,
что это есть доля объяснённого
разброса переменной y в
общем разбросе переменной y.
Соответственно, из предыдущих формул
следует, что этот показатель лежит от 0 до
1, и R-квадрат — это
косинус квадрат угла φ.
Но, оказывается,
для косинуса у нас есть и другая формула.
Из-за того, что скалярное произведение
любых двух векторов A и B
— это есть длина вектора
A помножить на длину вектора
B на косинус угла между ними,
то из этого факта следует
выражение для косинуса,
а именно: косинус между
любыми двумя векторами — это
есть скалярное произведение
этих двух векторов делить
на длину одного вектора
на длину другого вектора.
Соответственно, что в нашем случае
будет являться R-квадратом,
или косинусом квадрата между какими
двумя векторами является R-квадрат?
Косинусом какого угла он является?
Угол φ — это угол между AB и BC.
Соответственно, у нас вектор AB с
точностью до направления можно задать
как y минус y
среднее помножить на вектор из единичек.
Соответственно. ..
Это на самом деле, конечно, BA.
А вектор,
вектор BC можно задать как вектор
y с крышкой минус y среднее
помножить на вектор из единичек.
Это вектор BC.
Соответственно, нам нужен косинус
угла между этими векторами.
Соответственно, что мы получим,
когда посчитаем длину первого
вектора и длину второго вектора?
У нас получается,
что скалярное произведение
BC c BA —
это есть скалярное произведение вектора
y минус y средняя помножить
на вектор из единичек,
y с крышкой минус y средняя
помножить на вектор из единичек.
Соответственно, это есть сумма.
Поскольку с другой стороны скалярное
произведение можно определить как,
скалярное произведение a на b можно
определить как сумму a_i на b_i,
то нам просто нужно попарно
перемножить компоненты этих векторов.
Соответственно, у нас получится: первая
компонента этого вектора — это y_1 минус y79
00:06:43,502 —> 00:06:48,930
средняя, первая компонента второго вектора
— это y с крышкой первая минус y средняя.
Соответственно, я беру
y_i минус y средняя и
перемножаю на y_i с
крышкой минус y средняя.
Это я нашёл числитель.
Соответственно, как выглядит знаменатель?
В знаменателе у нас
находится длина вектора BC,
это корень квадратный из суммы
квадратов его компонент,
то есть это корень квадратный из суммы,
BC это y с крышкой,
соответственно: y_i с крышкой
минус y средняя в квадрате.
Ну, а соответственно,
длина вектора BA — это
есть корень из суммы
квадратов его компонент,
то есть корень из суммы y_i
минус y средняя в квадрате.
Соответственно, мы получили ещё одну
формулу для коэффициента R-квадрат,
а именно: R-квадрат
равняется — в числителе сумма y_i минус
y средняя помножить на y_i
с крышкой минус y средняя,
деленное на корень квадратный
из сумма y_i минус y средняя в
квадрате на сумма y_i с крышкой
минус y средняя в квадрате.
А, с другой стороны,
что это такое по сути?
Здесь можно узнать формулу выборочной
корреляции между двумя векторами,
а именно: это выборочная корреляция,
обозначу её sCorr (sample
correlation — выборочная
корреляция), между
векторами y и y с крышкой.
И всё, конечно, нужно взять в квадрат,
поскольку я считал косинус угла,
а R-квадрат — это косинус квадрат угла.
Таким образом,
мы получили две интерпретации для
показателя в качестве регрессии.
С одной стороны, R-квадрат — это
доля объяснённой дисперсии y, доля
объяснённого разброса y: это объяснённый
разброс y делить на общий разброс y.
А с другой стороны,
R-квадрат — это выборочна корреляция между
прогнозами и настоящим y,
взятое в квадрат.
Чем R-квадрат выше,
тем больше y с крышкой похож на y,
чем чем R-квадрат выше,
тем выше доля объяснённой дисперсии.

Возведение вектора в квадрат? — Математический стек Exchange

спросил

Изменено 6 лет, 9 месяцев назад

Просмотрено 100 тысяч раз

$\begingroup$

Итак, это базовый. И должно быть довольно быстро. Допустим, у меня есть вектор $\vec{r}$: 92$, когда понятно, что ты не имеешь в виду $$ {\ bf r} {\ bf r} = \ sum_ {i, j} r_i r_j {\ bf e} _i {\ bf e} _j $$ что равно вполне допустимой величине [1].

Что касается ${\bf r} = {\bf x} + {\bf y} + {\bf z}$, $$ \begin{выравнивание} {\bf r} \cdot {\bf r} &=& {\bf x} \cdot {\bf x} + {\bf x} \cdot {\bf y} + {\bf x} \cdot {\ bf z} + {\bf y} \cdot {\bf x} + {\bf y} \cdot {\bf y} + {\bf y} \cdot {\bf z} + {\bf z} \cdot {\bf x} + {\bf z} \cdot {\bf y} + {\bf z} \cdot {\bf z} \\ &=& {\bf x} \cdot {\bf x} + {\bf y} \cdot {\bf y} + {\bf z} \cdot {\bf z} + 2\left( {\bf x } \cdot {\bf y} + {\bf x} \cdot {\bf z} + {\bf y} \cdot {\bf z}\right) \end{эквнаррай} $$ равно ${\bf x} \cdot {\bf x} + {\bf y} \cdot {\bf y} + {\bf z} \cdot {\bf z}$ для всех $\bf x$, $ \bf y$, $\bf z$ тогда и только тогда, когда ${\bf x} \cdot {\bf y} + {\bf x} \cdot {\bf z} + {\bf y} \cdot {\bf z} = 0$ — особый случай, когда ${\bf x} \cdot {\bf y} = {\bf x} \cdot {\bf z} = {\bf y} \cdot {\bf z} = 0$. 93 {\ bf r} \ \ rho \ слева ({\ bf r} \ справа) \ слева [\ слева ({\ bf r} \ cdot {\ bf r} \ справа) {\ bf I} — {\ bf г}{\бф г}\право] $$ где $$ {\bf I} = \sum_{i,j} \delta_{ij} {\bf e}_i {\bf e}_j $$

$\endgroup$

4

$\begingroup$

Почему бы вам не разработать расширение самостоятельно. 2 + 2 \left((\vec{x} \cdot\vec{z}) +(\vec{y}\cdot\vec{z}) + (\vec{x} \cdot\vec{y}) \ справа)$$ 92$$

$\endgroup$

$\begingroup$

Существует два основных способа умножения вектора, скалярного произведения, как показано в ссылке Скалярное произведение, которое дает скаляр, независимо от того, умножаете ли вы A.B или возводите его в квадрат, A.A.

Или у вас может быть перекрестное произведение, то есть A X B, которое дает вам другой вектор, перпендикулярный обоим перекрестным произведениям.

Причина, по которой существуют два разных способа умножения векторов, заключается в том, что они имеют дело с различными физическими ситуациями, поэтому скалярное произведение может использоваться для работы, которая является скалярной, F.D, а векторное произведение используется для крутящего момента, скажем, или углового скорости, которые являются векторами.

$\endgroup$

4

microbenchmark — Вычислить матрицу квадрата суммы в R

спросил

Изменено 1 год, 5 месяцев назад

Просмотрено 112 раз

92

Есть ли в r функция, позволяющая сделать это без ручного написания?

Большое спасибо за помощь.

  • r
  • микротест

2

Все, что вам нужно, это внешний продукт:

 v <- 1:5
внешний (v, v, '*')
# [1] [2] [3] [4] [5]
#[1,] 1 2 3 4 5
#[2,] 2 4 6 8 10
#[3,] 3 6 9 12 15
#[4,] 4 8 12 16 20
#[5,] 5 10 15 20 25
 

Сравнение различных подходов:

 библиотека (микротестирование)
библиотека (ggplot2)
v <- 1:1000
mbm <- microbenchmark("outer" = { ​​external(v, v, '*') },
                      "matprod" = {v%*%t(v)},
                      "tcrossprod" = {tcrossprod(v)})
автоплот (мбм)
 

На приведенном выше рисунке показано, что external() и прямое матричное произведение более эффективны, чем tcrossprod()

1

 v = 1:4
tcrossprod (v)
#> [1] [2] [3] [4]
#> [1,] 1 2 3 4
#> [2,] 2 4 6 8
#> [3,] 3 6 9 12
#> [4,] 4 8 12 16
 

Создано 04.10.2021 в пакете reprex (v2.

alexxlab

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *