https://wodolei.ru/catalog/mebel/rakoviny/Akvaton/ 
А  Б  В  Г  Д  Е  Ж  З  И  Й  К  Л  М  Н  О  П  Р  С  Т  У  Ф  Х  Ц  Ч  Ш  Щ  Э  Ю  Я  AZ

 

Тогда эти вероятности надо сильно увеличить. Почему? Русская пословица есть - утопающий хватается за соломинку.
А.Г. Речь идёт о стратегии игры?
Б.М. Да, конечно. Но откуда известно, как мы стоим - хорошо или плохо? Например, по той же самой статической оценке позиции, во-вторых, по динамической оценке позиции, взятой с какой-нибудь простой функции риска. Вот это всё приводит к динамическому выбору функции риска. Примерно выбрав, как мы стоим, выигрыш, проигрыш или в серединке, мы за счёт этого динамически строим функцию риска. Например, когда априорно позиция примерно равна, эта функция риска действительно немножко убывает. То есть она похожа на линейную функцию, константу, которая от минус единицы до плюс единицы убудет, начиная со значения единицы, примерно до одной второй. Примерно такая функция риска, убывающая, немножко пессимистическая, соответствует тому, что - пойдёт дождик или не пойдёт дождик - зонтик мы возьмём.
Если же мы заведомо проигрываем, функция риска сильно возрастает. Если же мы выигрываем очень сильно, то мы должны быть сверхпессимистами и очень плохие прогнозы предполагать с гораздо большими вероятностями. И функция риска будет становиться функцией сверхпессимиста. И в зависимости от такого предварительного подсчёта, предварительной генерации, мы и строим динамическую функцию риска.
Поскольку я постоянно делаю шаги в другие задачи дискретной оптимизации, то я здесь сделаю ещё один. Например, некоторые программы-эксперты высчитывают время, оставшееся до получения хорошего ответа (не обязательно оптимального, но близкого к оптимальному) в какой-нибудь задаче дискретной оптимизации, например, в той же самой пресловутой «задаче коммивояжёра» или в минимизации конечных автоматов - тоже одна из моих любимых задач. И разные программы-эксперты оценивают: если в среднем эти программы дают время вычисления, которое очень высоко, гораздо больше, чем если мы пойдём по другой ветке вычислений, то мы здесь применим какую-то оптимистическую функцию риска. Если время будет, наоборот, слишком маленькое, то пессимистическую. Это всё имеет выход в другие задачи дискретной оптимизации.
А.Г. Это то, что у игрока называется интуицией во время игры.
Б.М. Да. Это второй шаг - он самый главный. Первым шагом было введение функции риска, вторым - динамической функции риска. Есть и третий шаг, который тоже может быть важен, хотя менее важен, чем второй. Это применение несколько раз подряд этих функций риска, потому что после первого применения мы немножко уточняем оценку позиции. А раз немножко уточняем оценку позиции, то можем немножко более определённо сказать - мы пессимисты или оптимисты. А в следующий раз мы ещё более определённо будем говорить, ещё раз и ещё раз.
Казалось бы, что это очень долгие вычисления, но нет - по сравнению со всем остальным объёмом вычисления, связанного с получением статических оценок позиции, с организацией перебора и так далее. Это неоднократное применение функции риска, динамическая функция риска, фактически совершенно не занимает времени, то есть там какие-то доли процента - даже, кажется, мы и не считали, какие именно доли процента. Даёт ли этот третий шаг большой выигрыш по сравнению только со вторым? Я затрудняюсь сказать, но раз без каких бы то ни было усилий мы можем получить какое-то преимущество, то, наверное, даёт.
Дело в том, что у меня описаны примеры именно конкретных реализаций, статистических оценок позиций, когда это должно дать преимущество, должно дать плюсы. Но насколько часто эти примеры проявляются в нардах - я сказать затрудняюсь.
А.Г. Вы сами у своей программы выигрываете?
Б.М. Проигрываю. Это, кстати, интересный вопрос, хорошо, что он возник, было бы плохо, если бы он не возник. Я в нардах специалист, но, конечно, условно говоря, не гроссмейстер. Хотя, может быть, моя квалификация в нардах и выше, чем была моя квалификация в шахматах, когда я ещё играл - кандидат в мастера. Вот здесь интересный момент - почему я проигрываю? Я всё-таки человек, и поддаюсь иногда азарту, хотя, конечно, в казино не хожу и только в дурном сне могу представить, что я в казино пойду. Там от меня ничего не зависит, там просто фишки, как выпадут, так и выпадут. А здесь от меня зависит, от моего интеллекта.
И всё-таки я азарту поддаюсь. Например, если я два хода назад стоял хорошо, на выигрыш, но что-то случилось, плохо кубики упали, и я начал стоять плохо. Я просто по инерции продолжаю у себя в мозгу применять пессимистическую функцию риска, оценивая позицию, чего, конечно, делать не надо. Программа же быстрее переключается и быстрее понимает, что всё не так хорошо происходит, как есть на самом деле, и программа переключается, например, от пессимистической к оптимистической функции риска, переключается гораздо быстрее чем я.
А.Р. Тут, наверное, стоит ещё заметить, что программа, в которой реализованы эти алгоритмы, но в которой не подобраны числовые коэффициенты (когда переключаться на какую стратегию, как, собственно, статично оценивать позицию, хорошая она или плохая), эта программа не является рабочей. Чтобы она заработала, необходимо её обучить. Обучение программы происходит, когда она играет сама с собой, тогда происходит, собственно, подгонка параметров таким образом, чтобы максимально улучшить качество игры, максимально повысить вероятность выигрыша.
Но здесь возникает уже другой вопрос - каким образом её учить? Если в играх сама с собой, то, наверное, это будет немного необъективно, так как в данном случае отношения не транзитивны: если программа выиграла у другой программы, а другая у третьей, то не обязательно, что первая выиграет у третьей. И выбор системы обучения - тоже очень интересная проблема. И, собственно, если её грамотно решить, то можно действительно надеяться на то, что получится продукт, который в 2004 году станет играть на должном уровне.
А.Г. То есть эту проблему вы ещё не решили?
Б.М. Решаем… всё-таки можно даже сказать, что решили. Здесь мы касаемся темы, о которой ещё сегодня не говорили. Это не нейросети, их мы очень мало применяем здесь. А это так называемые генетические алгоритмы. В научной литературе им посвящено гораздо меньше публикаций, чем нейросетям. Мне кажется - незаслуженно. Потому что и то, и другое - это альтернативный подход к эвристическому программированию. Чистые математики объясняют это так, что нейросети - это математически объяснимо, может быть математически доказано, а генетические алгоритмы - якобы нет. И приводят ссылки на работу Колмогорова-Арнольда, работу 50-х годов - но мне кажется, что для практического программирования эта работа представляет весьма малый интерес. И то, и другое, это разные альтернативы, разные подходы к эвристическому программированию. Наша «функция риска» - это тоже подход. Просто надо всё применять в разумных примерах, в разумных количествах.
Вот здесь возникает именно задача самообучения набора коэффициентов, среди которых, кроме всего прочего, коэффициенты самообучения функций риска, не только коэффициенты для оценки позиций, но и коэффициенты функций риска. Мне, по крайней мере, неизвестно хороших публикаций (чуть ли вообще никаких) про самообучение этих наборов коэффициентов. Есть, либо есть стандартный подход генетических алгоритмов, в котором тоже много не совсем правильного, либо просто, как в упомянутых книжках Вельского с компанией, сказано: «Было произведено самообучение». Было, хорошо было произведено, раз программа хорошая, раз, отставая в 70-х годах от американцев по технике, на той же самой технике «Каисса», победила. Значит, было хорошо самообучение произведено, но как оно было произведено, никакой теории по этому поводу не было.
А.Г. Получается, что в вашем случае, при ваших алгоритмах решения, самообучение важнее, чем в случае программ, которые строятся на нейросетях. Или я ошибаюсь?
А.Р. В нейросетях как раз всё построено на самообучении…
Б.М. Но там своё самообучение…
А.Р. Нейросеть нужно настроить, чтобы она играла. Это производится за счёт самообучения, иначе это просто будет…
А.Г. Я неправильно задал вопрос. Что вам важнее - выбрать метод обучения программы или… Грубо говоря, у вас ребёнок непослушный, непредсказуемый…
А.Р. Скажем так, это вопрос важный - вопрос выбора метода самообучения. Важный в чём? Нужно не просто чтобы программа сама с собой играла, а чтобы было много экземпляров такой программы, каждый немного по-своему настроенный. И вот эта вся толпа, играя друг с другом, устраивает турниры, выбирает победителя. Необходимо найти критерий, по которому решается, кто из них победитель. Собственно, кажется, это и есть швейцарская система?
Б.М. Да, в общем-то, это что-то похожее на швейцарскую систему. Потом это было немножко изменено, но это не настолько всё-таки важно, чтобы так подробно об этом говорить.
Здесь лучше, наверное, вспомнить ещё одну вещь, которая только начала встраиваться в программу. В классической теории Адельсона-Вельского программа, когда думает, за противника думает так же, как за себя. То есть на место противника ставит саму себя. Ещё один приём, который мы применяли - ставить на место противника не себя, а нечто другое, нечто более сложное, нечто более сильное. Потому что у нас-то есть действительно толпа (это такой жаргонный термин - толпа игроков), толпа объектов для самообучения. Это применяется, ещё раз скажу, и в других задачах дискретной оптимизации. И можно всегда взять того, который лидирует, в качестве условного противника, то есть программа, играя, в качестве условного противника берёт лидера.
Что ещё можно? Ещё только начаты работы в том направлении, чтобы программа пыталась, пока противник думает, начать думать за противника и старалась подобрать к противнику свои критерии работы. То есть пыталась представить саму себя на месте противника, и если у неё это получается, она на месте этого виртуального противника подставляет саму себя со своими коэффициентами. Вот это была бы очень интересная тема. Но она, как я уже сказал, только начата, и сказать, насколько она реально применяется в программах, я вам пока не могу.
А.Г. Ну что ж, мне осталось вам пожелать удачи в 2004 году. И если победите, то приходите рассказать о том, как это было.
Б.М. Спасибо!
Гравитационные волны

4.06.03
(хр.00:50:40)
Участники :
Владимир Борисович Брагинский - доктор физико-математических наук, член-корреспондент РАН
Михаил Васильевич Сажин - доктор физико-математических наук
Александр Гордон : …Теории относительности Эйнштейна. Но до сих пор они не зарегистрированными остаются, таким теоретическим предположением.
Владимир Брагинский : Нет.
А.Г. Не зарегистрированным?
Михаил Сажин : Совершенно верно.
В.Б. Даже уже Нобелевскую премию дали.
А.Г. За что?
В.Б. За косвенное обнаружение, проверку формулы Эйнштейна для гравитационного излучения. 93-й год, Нобелевский комитет сработал верно.
А.Г. Секунду, секунду, секунду. Вы говорите - нет, вы говорите - да.
В.Б. Да. И он прав, и я прав.
А.Г. Это к слову о логике, которая используется в описании квантовой механики. И даже в общей теории относительности. А что произойдёт при двух сценариях: первый из которых мы сегодня будем обсуждать так или иначе в этой программе. Гравитационные волны - да, будут обнаружены в эксперименте, с помощью столь сложных устройств…
В.Б. Непосредственно будут обнаружены.
А.Г. Да, непосредственно.
В.Б. Нобелевскую премию дали за опосредованное обнаружение.
А.Г. А теперь будут непосредственно обнаружены гравитационные волны. И это один сценарий. И второй: при всех попытках гравитационные волны не будут обнаружены, а общая теория относительности зарекомендовала себя как очень точная в предсказаниях наука.
В.Б. Да. Она - инженерная дисциплина для слабых гравитационных полей, для высокоточной космической навигации.
А.Г. Очень хорошо. Есть вероятность того, что гравитационные волны не будут прямо обнаружены?
В.Б. Нет.
А.Г. А вы как считаете?
М.С. Я считаю, что они будут обнаружены.
А.Г. Хорошо, теперь, когда мы об этом договорились, стоит напомнить, что вы сами разделили эфир на две неравные части. У вас 30 минут времени, у вас 20.
В.Б. Михаилу Васильевичу - 20?
А.Г. Да.
В.Б. Значит, можно начинать? Я начну издалека. Сначала был Максвелл. В 1865-м году он обнаружил, что в его уравнении есть волновое решение, и это было опубликовано. И в среде очень небольшого количества физиков это была острая проблема. Гельмгольц своему ассистенту говорил: «Максвелл знает, что есть волновое решение». Должны быть волны. Что это такое? Надо их обнаруживать, если они есть. Хотя оптика была, но никто тогда не знал, что оптическое излучение - это тоже электромагнитные волны.
В 1888-ом году ассистент Гельмгольца сделал опыты, которые известны довольно давно - опыты с вибратором Герца. Он разряжал банку на диполь (на то, что сейчас стоит на крышах многих домов - антенны дециметрового диапазона) и ухитрился разглядеть маленькую искорку в таком же диполе, в таком же вибраторе, который находился на расстоянии нескольких метров. Потом обнаружил, что можно отразить волну. Это была прямая демонстрация существования гравитационного излучения. Здесь надо сделать некоторый акцент. Акцент принадлежит Лоренцу - великому голландскому физику. Это то поле, которое отрывается от источника и существует сколь угодно долго, но распространяется, если в вакууме, то со скоростью света. Итак, прошло 7 лет после Генриха Герца. Рентген открыл рентгеновские излучения. Те же самые, электромагнитные, только другая длина волны - маленькая. В 10 тысяч раз меньше, чем оптический диапазон.
Ещё несколько лет прошло. Всем стало ясно, что это единый спектр, только частоты разные, длины волн разные.
Дальше, следующий этап начался с середины первой мировой войны. Эйнштейн публикует общую теорию относительности. В линейном приближении она очень похожа на уравнение Максвелла. Она сложнее, но в линейном приближении похожа.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36


А-П

П-Я