Каталог каналов Каналы в закладках Мои каналы Поиск постов Рекламные посты
Инструменты
Каталог TGAds beta Мониторинг Детальная статистика Анализ аудитории Бот аналитики
Полезная информация
Инструкция Telemetr Документация к API Чат Telemetr
Полезные сервисы

Не попадитесь на накрученные каналы! Узнайте, не накручивает ли канал просмотры или подписчиков Проверить канал на накрутку
Прикрепить Телеграм-аккаунт Прикрепить Телеграм-аккаунт

Телеграм канал «Математика не для всех»

Математика не для всех
4.3K
18.0K
396
328
72.4K
Математика - царица наук, окружающая нас с рождения до самой смерти. У нас - теоремы, головоломки, мемы и факты из алгебры, геометрии, топологии и других областей.
По рекламе: https://telega.in/c/mathematics_not_for_you и @andreybrylb
Подписчики
Всего
11 208
Сегодня
+2
Просмотров на пост
Всего
833
ER
Общий
9.26%
Суточный
8.4%
Динамика публикаций
Telemetr - сервис глубокой аналитики
телеграм-каналов
Получите подробную информацию о каждом канале
Отберите самые эффективные каналы для
рекламных размещений, по приросту подписчиков,
ER, количеству просмотров на пост и другим метрикам
Анализируйте рекламные посты
и креативы
Узнайте какие посты лучше сработали,
а какие хуже, даже если их давно удалили
Оценивайте эффективность тематики и контента
Узнайте, какую тематику лучше не рекламировать
на канале, а какая зайдет на ура
Попробовать бесплатно
Показано 7 из 4 276 постов
Смотреть все посты
Пост от 26.01.2026 19:16
548
0
7
Был у нас на курсе такой Леднев. <…> Где-то в 1945 году, когда война уже закончилась, встречается мне на улице этот Коля Леднев. Разговорились.
— Откуда идешь?
— От Соболева. У него моя диссертация кандидатская.
— Ну и как? – спрашиваю.
— Я ему сказал, если он хочет знать дифференциальные уравнения, пусть читает мою работу.
— Выгнал тебя?
— Выгнал.
Из воспоминаний И.А. Брина - род. 24 апреля 1919 года, ум. в 2011 году, выпускника МГУ, преподавателя математики в МЭИ с 1944-го по 1998 год; деда разработчика и основателя поисковой системы Google
👍 2
👏 14
Пост от 26.01.2026 13:33
437
0
4
👋Всем привет! Меня зовут Максим. Я прикладной математик в области дифференциальной и дискретной геометрии.

Приглашаю всех на свой научно-популярный канал
Карта математики | Maximatika

Здесь мы с вами попробуем ответить на вопросы:

- Как связаны между собой и другими науками различные дисциплины математики❓
- Откуда они взялись❓
- Где применяются❓

📚 Надеюсь, этот канал станет для вас хорошим дополнением к курсу математического образования или просто интересным способом провести время.

Как раз недавно стартовала новая серия видео по теории множеств.

YouTube - www.youtube.com/@Maximatika
Telegram - t.me/maximatiks
🤓 1
Пост от 26.01.2026 11:34
152
0
2
Одной из главных нерешённых задач до недавнего времени было существование единственной плитки, которой можно было бы замостить плоскость без какой-либо периодичности, так называемая проблема Эйнштейна — Гильберта.

В 2024 году Смит, Майерс, Каплан и Гудман-Штраус опубликовали статью, в которой представили первый пример этого мифологического существа из мира мозаик.

Поиграться можно здесь - https://bnaskrecki.faculty.wmi.amu.edu.pl/spectre/
🔥 1
Пост от 26.01.2026 07:45
23
0
0
Базовые алгоритмы машинного обучения: что они делают "на пальцах"

Когда говорят о машинном обучении, часто возникает ощущение чего-то сложного, почти магического. На практике же большая часть задач в анализе данных решается довольно ограниченным набором базовых алгоритмов. Они разные по духу, но каждый отвечает на простой вопрос: как из данных извлечь структуру — зависимость, границу, группы или вероятности.

Линейная регрессия — самый прямолинейный способ предсказания. Она пытается описать данные простой зависимостью: если меняется одно, как меняется другое. Типичный пример — оценка цены квартиры по площади, району, этажу. Алгоритм не «понимает» рынок, он просто подбирает наилучшее линейное приближение, которое в среднем ошибается меньше всего.

Логистическая регрессия, несмотря на название, используется не для чисел, а для решений типа «да / нет». Спам это или не спам, уйдёт пользователь или останется. Она не просто выбирает класс, а оценивает вероятность, что объект относится к нему. Это делает модель особенно удобной там, где важно понимать степень уверенности.

Дерево решений работает как набор вложенных вопросов: если выполнено одно условие — идём туда, если другое — сюда. Такие модели легко объяснять людям, потому что путь решения можно буквально проследить. Но за эту наглядность приходится платить: деревья легко подстраиваются под шум и начинают «запоминать» данные вместо того, чтобы обобщать.

Метод опорных векторов (SVM) ищет границу между классами так, чтобы она была максимально устойчивой. Интуитивно — это попытка разделить данные с запасом прочности. Алгоритм хорошо работает на задачах средней сложности, особенно когда данных не слишком много, а граница между классами не совсем очевидна.

Метод ближайших соседей (KNN) вообще ничего не «учит» заранее. Чтобы классифицировать новый объект, он просто смотрит на похожие объекты в данных и голосует. Это делает алгоритм концептуально простым и понятным, но на больших объёмах данных он становится медленным, потому что каждый новый запрос требует сравнения со всеми остальными.

Снижение размерности — это не столько алгоритм, сколько класс методов. Их цель — упростить данные, оставив главное. Когда признаков слишком много, часть из них дублирует друг друга или добавляет шум. Такие методы позволяют сжать пространство признаков, сделать данные более наглядными или подготовить их для других алгоритмов.

Случайный лес — попытка исправить слабости отдельных деревьев решений. Вместо одного дерева строится много разных, каждое со своими ошибками, а затем их ответы усредняются или объединяются голосованием. В результате модель становится устойчивее и часто даёт хороший результат без тонкой настройки.

K-means — один из базовых алгоритмов кластеризации. Он не знает правильных ответов заранее, а просто пытается разбить данные на заданное число групп так, чтобы внутри групп объекты были похожи друг на друга. Это полезно для исследования данных, поиска сегментов или предварительного анализа.

Наивный Байес — вероятностный подход, который делает сильные упрощающие предположения о независимости признаков. Несмотря на это (а иногда и благодаря этому), он оказывается неожиданно эффективным, особенно в задачах работы с текстами, где скорость и устойчивость важнее тонкой подгонки.

В сумме эти алгоритмы образуют своего рода «алфавит» машинного обучения. Современные модели могут быть гораздо сложнее, но почти всегда они либо развивают эти идеи, либо комбинируют их между собой. Понимание базовых методов даёт не только техническую основу, но и интуицию: что именно модель делает с данными и почему она ошибается там, где ошибается.
1
Пост от 25.01.2026 19:39
62
0
1
Вместе с тем ⏫⏫⏫

Новый ИИ-рекорд на FrontierMath:

На бенчмарке FrontierMath, в четвёртом уровне сложности, зафиксирован новый рекорд: GPT-5.2 Pro набрал 31 %, заметно превысив предыдущий максимум в 19 %. Но сухая цифра здесь — не самое интересное. Куда важнее то, как этот результат был получен и что именно модель смогла решить.

Команда Epoch AI провела оценку вручную, напрямую через интерфейс ChatGPT. Причина довольно прозаична: при тестировании через API возникали проблемы с тайм-аутами, и, чтобы не искажать картину, исследователи решили временно отказаться от автоматического прогона. Это важная деталь: тестирование не было «оптимизировано под результат», а, напротив, проводилось в более жёстком и прозрачном режиме.

До этого ни одна модель не решала 13 задач четвёртого уровня. GPT-5.2 Pro справился с 11 из них, а также решил ещё несколько задач из общего пула. В итоге результат текущего раунда — 15 решённых задач из 48, то есть те самые 31 %. Если же учитывать все задачи четвёртого уровня, которые когда-либо удавалось решить любой модели, суммарный показатель теперь составляет 17 из 48, или 35 %.

Отдельно подчёркивается вопрос переобучения. OpenAI имеет эксклюзивный доступ к 28 задачам четвёртого уровня и их решениям, тогда как у Epoch остаются 20. GPT-5.2 Pro решил лишь 5 задач (18 %) из общего набора, но 10 задач (50 %) из выделенного. Такая асимметрия как раз говорит против гипотезы, что модель просто «знает ответы заранее»: если бы дело было в утечке или переобучении, картина выглядела бы иначе.

В процессе оценки были обнаружены и технические огрехи: две задачи изначально были некорректно засчитаны. После перепроверки результаты обновили, и баллы были распределены более точно между версиями GPT-5.2 и GPT-5.2 Pro. Это подчёркивает, что речь идёт не о маркетинговом анонсе, а о живом исследовательском процессе с исправлениями по ходу дела.

Особый интерес вызывают отзывы самих математиков — авторов задач.
Одна из недавно решённых проблем была предложена Джоэлом Хассом, специалистом по низкоразмерной топологии и геометрии. После первого успеха он усложнил формулировку, по сути проверяя, не была ли удача случайной. GPT-5.2 Pro справился и с более жёсткой версией.

Задача от известного теоретика чисел Кена Оно была решена как GPT-5.2 (с очень высоким уровнем доступа), так и GPT-5.2 Pro. Оно в целом положительно оценил решение, но отметил, что текст объяснения местами не дотягивает по строгости — формально верно, но изложено не так аккуратно, как ожидал бы человек-математик.

Ещё одну задачу, предложенную Дэном Ромиком, модель решила так, что сам автор остался впечатлён результатом. В других случаях, например с задачами аналитической комбинаторики от Джея Пантона, решения оказались корректными, но использовали численные обходные пути, которых автор не закладывал в исходную идею задачи. Это не ошибка, но симптом: модель часто ищет кратчайший рабочий путь, а не «красивое» или концептуально ожидаемое решение.

Интересен и список нерешённых задач. По крайней мере один автор считает, что модели застревают из-за характерной слабости: они делают правдоподобное предположение и идут дальше, не пытаясь его доказать. Сам автор, работая над этой задачей, столкнулся с тем, что попытка доказательства разрушает интуитивную гипотезу и открывает более сложную картину. Модели до этого шага пока не доходят.

В итоге FrontierMath всё отчётливее перестаёт быть тестом «на знание формул». Это становится проверкой способности к исследовательскому мышлению: выдерживать неопределённость, проверять гипотезы, работать с неожиданными структурами. GPT-5.2 Pro ещё далёк от полноценного математика, но сам факт, что обсуждение идёт уже на этом уровне, — важный сдвиг.

Вопрос теперь не в том, может ли ИИ решать сложные задачи, а в том, какие формы математического мышления он осваивает первым — и какие пока остаются сугубо человеческими.

https://x.com/EpochAIResearch/status/2014769359747744200
Пост от 25.01.2026 17:25
84
0
2
Пока не становитесь фанатом ИИ! Сегодня я протестировал Google, задав ему следующий вопрос: "когда две комплексные групповые алгебры над конечными абелевыми группами изоморфны?"

Вот ответ Google AI:

Две комплексные групповые алгебры ℂ[G] и ℂ[H] над конечными абелевыми группами G и H изоморфны тогда и только тогда, когда сами группы G и H изоморфны. Согласно теореме о структуре конечных абелевых групп, это означает, что у них должен быть одинаковый порядок (|G| = |H|) и одинаковые инвариантные множители (или одинаковое разложение на p-компоненты).

Это неправильный ответ!

Правильный ответ:

Две комплексные групповые алгебры ℂ[G] и ℂ[H] над конечными абелевыми группами G и H изоморфны тогда и только тогда, когда |G| = |H| (то есть когда группы имеют одинаковую мощность), даже если сами группы не изоморфны.
1
Пост от 25.01.2026 14:57
37
0
1
«Билл Гейтс по богатству ближе к вам, чем к Илону Маску. С ума сойти».

На первый взгляд звучит как провокация, но математика здесь простая. Для наглядности возьмём условные числа: у Маска — 800 млрд, у Гейтса — 100 млрд. Тогда Гейтс находится ровно посередине между Маском и вами в обычной (линейной) шкале, если ваше состояние — меньше 450 млрд. Потому что 100 ближе к 0, чем к 800? Нет — потому что мы сравниваем расстояния: до 800 от 100 — 700, а до вас от 100 — меньше 700, пока вы ниже 450.

Но почему эта мысль вообще “бьёт по голове”? Потому что в разговоре о сверхбогатых мы почти всегда мысленно переключаемся на масштаб “ступеней”, даже не замечая этого. То есть думаем не “прибавил 10 млрд”, а “стал в несколько раз богаче”. Это мышление порядками величины: 800 млрд — это совсем другая лига по отношению к 100 млрд, как 100 млрд — другая лига по отношению к 10 млрд. В таком масштабе “середина” считается иначе. Мы интуитивно сравниваем не среднее арифметическое (𝑎+𝑏)/2, а среднее геометрическое √𝑎𝑏 . Оно и есть “середина” в шкале, где важны раза, а не плюс.

Например, √12,5⋅800=100. То есть 100 млрд — геометрическая середина между 12,5 млрд и 800 млрд. И если мыслить в этой “ступенчатой” шкале, Гейтс окажется ближе к Маску, чем к вам, если только ваше состояние не превышает 12,5 млрд😁.

Та же логика всплывает и в других местах — там, где мир устроен “по разам”.

1) Юпитер как «середина»
По размеру Юпитер примерно “между” Землёй и Солнцем именно в смысле масштаба: в обычной шкале он выглядит ближе к Земле, но в шкале порядков оказывается почти посередине.

2) Тритон в музыке
Тритон делит октаву пополам не по разнице частот, а по их отношению. Поэтому нота “посередине” имеет частоту, равную геометрическому среднему частот крайних нот.

3) Человек как объект среднего масштаба
Если измерять Вселенную порядками величины, то человеческое тело окажется удивительно “в середине”: самые малые известные объекты примерно на столько же порядков (примерно 30) меньше нас, насколько крупнейшие структуры — больше.
🔥 1
Смотреть все посты