https://wodolei.ru/catalog/rakoviny/Roca/ 
А  Б  В  Г  Д  Е  Ж  З  И  Й  К  Л  М  Н  О  П  Р  С  Т  У  Ф  Х  Ц  Ч  Ш  Щ  Э  Ю  Я  AZ

 

Однако ЭВМ не обобщает, а всего лишь
экономит символы, хотя, конечно, следует признать,
что немногословность способствует более ясному мыш-
лению. Тем не менее ликвидация языкового хаоса не
означает абстрагирования, а экономия не порождает
теоретического мышления. Бритва Оккама -
хирургический инструмент, а не творческий метод.
Дж. Келли (105, 290)
Компьютерная обработка
Статистические игры с решетками привлекают вни-
мание многих несостоявшихся математиков, работа-
ющих ныне в психологии. Программы становятся все
сложнее: зачастую невозможно обнаружить никакой
связи между машинной распечаткой результатов и
действиями испытуемого при заполнении решетки. Мы
не призываем к примитивизму и упрощению обработки,
а лишь хотим предостеречь исследователей, склонных
входить в азарт игры с числами: им следует помнить,
что множество интересных сведений можно почерпнуть
при непосредственном изучении <сырого> материала
решеток (см. главу 4).
Сам Келли лелеял мысль о разработке и применении
сложных статистических процедур для анализа реше-
ток. В первом томе <Психологии личных конструктов>
он в общих чертах наметил непараметрический метод
факторного анализа. Первая программа компьютерной
<Бритвой Оккама> называют один из принципов научного
объяснения, выдвинутый средневековым английским философом-
схоластом У. Оккамом. Согласно этому принципу, <сущности не
следует умножать без нужды>.-Прим. ред.
обработки была написана Фейджером (58) и позднее
доработана Келли (107). Следующий значительный шаг
был сделан Слейтером, описавшим в 1964 году свой
метод <главных компонент> для анализа ранговых
решеток, причем как решеток со сходными элементами
и конструктами, так и с различными элементами или
конструктами. Представив психологическое простран-
ство в виде гиперсферы, он нашел возможность числен-
ного выражения взаимодействия между элементами и
конструктами ранговой и оценочной решеток. В течение
ряда лет недоступность его программ, находившихся
под финансовым контролем Совета по медицинским
исследованиям, лишала психологов возможности дви-
гаться вперед. Были, конечно, и исключения. Банни-
стер разработал программу раздельной кластеризации
конструктов и элементов. Другие исследователи исполь-
зовали модификацию кластерного анализа Мак-Квитти
(139). Равенетт (167) разработал метод <двустороннего>
анализа, проводимого без помощи ЭВМ и позволяюще-
го <вычитать> влияние специфических элементов внут-
ри каждого кластера конструктов.
Уилсон (222) поставила следующую проблему: <Иде-
альный способ исследования связей между конструкта-
ми и элементами требует одновременной стандартиза-
ции строк и столбцов. Поэтому, хотя программа Слей-
тера и представляет собой попытку обнаружения свя-
зей между конструктами и элементами, она искажает
эти связи, так как нормализуются лишь конструкты, а
не элементы. Для выявления подлинных связей необхо-
димо стандартизировать как столбцы, так и строки,
однако, по утверждению Кеттела (45), метод получения
единственного решения при одновременной стандарти-
зации строк и столбцов еще не разработан. Это очень
интересная статистическая проблема, имеющая боль-
шое значение и для анализа решеток>.
На сегодняшний день есть лишь несколько методов
компьютерной обработки импликативных решеток. К
ним относится модификация метода факторного анали-
за Келли. При использовании этого метода исследова-
тель сталкивается с извечной проблемой сравнения
данных типа <пропуск-галочка>: и галочкам, и пропу-
Метод главных компонент-один из наиболее распространен-
ных методов факторного анализа. Не требует никаких априорных
предположений о структуре данных. Позволяет получить однознач-
ное решение. Выделяемые факторы (главные компоненты) ортогональ-
ны (не коррелируют друг с другом) и упорядочены по величине, так что
первая главная компонента объясняет максимальное количество
дисперсии данных и т. д.- Прим. ред.
скам приписывается одинаковое значение, что вновь
приводит к вопросу о неравномерности распределения
элементов по полюсам конструктов.
Для преодоления этих трудностей была разработана
программа подсчета биноминальной вероятности совпа-
дения и несовпадения галочек в парах строк и столбцов
биполярной импликативной решетки (66). Однако, как
стало ясно сейчас, и это далеко не лучший способ
обработки. В настоящее время разрабатывается совер-
шенно новый подход к анализу данных импликативных
решеток, базирующийся на модели субъективной веро-
ятности. С помощью этой модели строится матрица
сходства конструктов, подвергающаяся затем кластер-
ному анализу по одному из существующих алгоритмов.
Для тех, кто интересуется статистикой и хотел бы
расширить свои познания в области компьютерной
обработки решеток, мы включили в эту главу общее
обсуждение этой проблемы, в значительной степени
заимствованное из работы Уилсон (222), где она подчер-
кивает, что существуют две большие группы методов
анализа ранговых и оценочных решеток.
Метрический факторный анализ l
Главное преимущество методов этого типа заключа-
ется в их доступности: в Великобритании и США они
включены в коммерческие статистические пакеты прог-
рамм (например, СПСН, или Статистический пакет
программ для социальных наук, 154). СПСН включает в
себя пять различных методов факторного анализа.
Анализ методом главных компонент (МГК). Он не
накладывает ограничений на анализируемые данные
(чего нельзя сказать про другие четыре метода). По
существу, это анализ общей дисперсии данных, позво-
ляющий обрабатывать столбцы и строки раздельно.
Получаемые главные компоненты можно вращать при
помощи алгоритмов, основанных на одном из трех
критериев (варимакс, эквимакс и облимакс). В итоге
обработки строится факторное пространство.
Более подробные и специальные сведения о различных алгорит-
мах факторного анализа читатель может найти, например, в книге
Харман Г. Современный факторный анализ.-М.: Статистика, 1972.-
Прим. ред.
Различные типы <вращения> факторов. Методы <вращения>
разработаны для получения более простой и интерпретируемой
факторной модели. В основе каждого метода лежит некоторый
критерий, который оптимизируется в процессе поиска решения.
Например, метод варимакс-вращения построен на критерии максими-
зации дисперсии факторных нагрузок на каждый фактор. В результа-
Остальные методы базируются на общей факторной
модели, предполагающей, что каждая из факторизу-
емых переменных имеет как общую, так и специфиче-
скую компоненту, а интерес представляет только общая
дисперсия.
Анализ методом главных факторов (МГФ)-
наиболее широко используемый метод. Уилсон указы-
вает, что он представляет собой разновидность более
общего факторного анализа, рекомендуемого Руммелом
(176), ему не присущи те допущения, которые лежат в
основе общего факторного анализа, и он обладает
дополнительным преимуществом: позволяет проверить
лежащее в основе традиционной факторной модели
предположение о том, что значение имеет только
общая часть дисперсии конструктов. Одним из резуль-
татов обработки является матрица ковариаций, обрат-
ная матрице факторного отображения. Внедиагональ-
ные элементы этой матрицы имеют значения, близкие к
нулю, что увеличивает доверие исследователя к валид-
ности окончательного решения, так как подтверждает,
что в большую часть общей дисперсии вносят вклад все
конструкты. Уилсон считает необходимым отметить,
что решения, получаемые при помощи факторного
анализа, как правило, обладают размерностью N/2. Это
означает, что факторов примерно в два раза меньше,
чем переменных. Если оказывается, что факторов
слишком много для экономичного описания данных, в
конечном решении число факторов можно уменьшить, а
затем подвергнуть их вращению.
В основе двух оставшихся методов лежат как
предположения, имплицитно присущие общей фактор-
ной модели, так и некоторые дополнительные допуще-
ния.
В основе Рэо-анализа лежит предположение о том,
что факторизуемые переменные (конструкты) охваты-
вают всю совокупность переменных, а элементы пред-
ставляют собой выборку из общей популяции элемен-
тов.
При проведении же Альфа-анализа предполагается,
что включенные элементы представляют собой целую
популяцию, а переменные-выборку из совокупности
переменных. В этом случае решение можно распростра-
те этого метода ищется решение, при котором каждая переменная
имеет максимальную нагрузку по одному из варимакс-факторов и
минимальные нагрузки по другим факторам. Этот метод позволяет
также получить ортогональное решение (некоррелирующие между
собой факторы). Другие методы, как, например, облимакс, позволяют
получить косоугольное решение, то есть решение, состоящее из
коррелирующих факторов.- Прим. ред.
нить на всю совокупность конструктов. Уилсон утвер-
ждает, что выбор техники должен определяться целью
исследования. Обсуждение описанных выше методов
можно найти также в работах Ная и его коллег (154).
Уилсон делает еще два замечания относительно
программ факторного анализа, включенных в СПСН.
Во-первых, они позволяют проводить факторный ана-
лиз как матрицы корреляций, так и матрицы ковари-
аций. Обе матрицы строятся на основе <сырых> дан-
ных, однако факторные решения, получаемые методом
главных компонент и методом главных факторов, отли-
чаются друг от друга. Этого нельзя сказать о Рэо- и
Альфа-анализах, а также о модификации факторного
анализа Харриса (82). Получаемые при помощи этих
трех методов решения для матриц корреляций и ковари-
аций пропорциональны и, следовательно, значимо кор-
релируют между собой, что, по мнению Уилсон, снима-
ет проблему, с которой сталкиваются исследователи
при использовании как метода главных компонент, так
и метода главных факторов,-какую матрицу выбрать
для факторизации.
Второе замечание Уилсон касается отношения числа
элементов к числу факторизуемых конструктов и свя-
занной с этим проблемы репрезентативности конструк-
тов. В целом можно сказать, что при факторизации
матрицы корреляций надежность решения в некоторой
степени зависит от стабильности коэффициентов корре-
ляции. Стабильность возрастает по мере увеличения
количества элементов, между которыми подсчитывает-
ся корреляция. Поэтому Уилсон советует там, где это
возможно, использовать число элементов, в три раза
превышающее число конструктов. Кроме того, размер-
ность конечного решения можно случайно или искус-
ственно ограничить неправильным выбором конструк-
тов, то есть нарушив требование репрезентативности
конструктов. Если выявляются или задаются конструк-
ты лишь двух типов, то можно с полным основанием
ожидать двухфакторного решения.
В работе Уилсон рассматриваются решения, опти-
мальные с точки зрения статистики, но не с точки
зрения психологии. Баннистер и Мэир (21) при работе с
ранговой решеткой, в которой в качестве элементов
использовались люди, обнаружили, что при увеличении
числа элементов от 10 до 15 значительно уменьшается
структурированность материала решетки.
Неметрические методы
В эту группу входят методы многомерного шкалиро-
вания (195). В то время как метрические методы
предполагают наличие линейной зависимости между
факторами и переменными, техники многомерного шка-
лирования предполагают только сохранение монотонно-
сти конечного решения и анализируемой матрицы. Так,
например, в ранговой и оценочной решетках порядко-
вые отношения между конструктами в их связи с
конкретным элементом (то есть по какому конструкту
элемент оценивается наиболее высоко, по какому-
вторым и т. п.) сохраняются в конечном решении,
однако на основе этого решения ничего нельзя сказать
о том, насколько выше элемент был оценен по данному
конструкту, чем по другому. Уилсон отмечает, что в
тех областях, где измерение преимущественно прово-
дится по шкалам порядка или даже шкалам наименова-
ния, меньший акцент на линейные связи становится
преимуществом многомерного анализа неметрического
типа. Но у этого метода есть и недостатки. Наиболее
существенный практический недостаток заключается в
том, что существует слишком мало коммерческих
пакетов программ, доступных пользователям. Хотя
неметрические методы развиваются уже давно (47), они
далеко не так распространены, как метрические
методы.
Наиболее исчерпывающая классификация неметри-
ческих моделей, программ машинной обработки и спо-
собов организации данных приводится в работе Шепар-
да (194). Уилсон, однако, считает, что список Шепарда
далеко не полон, а количество разработок растет <с
устрашающей скоростью>.
В работе Уилсон рассматривается также имплика-
тивная модель Хейза (84), имеющая прямое отношение
к импликативным решеткам. В качестве первичных
данных в ней используются условные вероятности.
Модель позволяет получить матрицу расстояний, кото-
рая затем анализируется неметрическими методами.
Преимущество модели Хейза, по мнению Уилсон, со-
стоит в том, что она дает возможность обрабатывать
асимметричные условные вероятности и определять
веса (или значимости) полюсов конструктов. В соответ-
ствии с этой комбинированной характеристикой кон-
структы, наиболее тесно связанные с измерениями
1 Подробнее об этом см.: Шепард Р. Н. Многомерное шкалиро-
вание и безразмерное представление различий.- Психологический
журнал, 1980, т. 1, №4, с. 72- 83.- Прим. ред.
получаемого решения,-это центральные конструкты,
обладающие наибольшим весом. Они имплицируют
большое число других конструктов, в то время как их
имплицируют очень немногие конструкты.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34


А-П

П-Я