Диплом Cоздание моделей свойств двухслойных пленочных структур на основе линейно-цепочечного углерода с
Работа добавлена на сайт bukvasha.net: 2015-10-24Поможем написать учебную работу
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
от 25%
договор
ФЕДЕРАЛЬНОЕ АГЕНСТВО ПО ОБРАЗОВАНИЮ
Федеральное государственное образовательное учреждение высшего профессионального образования
«Чувашский государственный университет им. И. Н. Ульянова»
Физико-математический факультет
Кафедра теплофизики
ДИПЛОМНАЯ РАБОТА
на тему: « Cоздание моделей свойств двухслойных пленочных структур на основе линейно-цепочечного углерода с помощью Data Mining»
студентки 5 курса специальности «Физика наноструктур»
Хытовой Анны Николаевны
Научный руководитель: профессор, доктор ф.м. н.,
Абруков Виктор Сергеевич _____________________________________
Зав. кафедрой теплофизики: профессор, доктор ф. м. н,
Абруков Виктор Сергеевич_______________________________________
Руководитель специализации: профессор, к. т.н.,
Кочаков Валерий Данилович______________________________________
Рецензент: профессор, доктор ф.м. н.,
Телегин Геннадий Гаврилович ____________________________________
г. Чебоксары 2011 г.
Оглавление
Введение……………………………………………………………………….…3
Глава 1 Литературный обзор
1.1. Что такое Data Mining ……………………….………………...……….....4
1.2. Методы и стадии Data Mining……………………………………………...5
1.3. Классификация задач Data Mining………………………………………...8
1.4. Модели Data Mining………………………………………………………..11
1.5. Теория нейронных сетей………………………………………………….14
1.6.Классификация нейронных сетей…………………………………………18
1. 7.Подготовка данных для обучения ……………..…………………………20
1.8. Выбор структуры нейронной сети……………………………………….21
1.9. кратко о ЛЦУ…………………………………………………………….22
Глава 2. Методика исследования и результаты работы
2.1. Вычислительная модель электрических пленок ЛЦУ……………….…25
2.2. Предобработка данных………………………………………………..…26
2.4. Структура и обучение нейронной сети…………...……………………...36
2.5. Анализ качества обучения нейронной сети………………………………42
2.6. Проверка и оценка моделей……………...……………………………….45
Заключение…………………………………………………………………..…49
Список использованных источников …………………………………….......50
Приложение № 1………………………………………………………………52
1.ВВЕДЕНИЕ
В настоящее время развитие нанотехнологий является приоритетным направлением в науке и технике. Проводится все больше исследований, экспериментов. Соответственно появляется огромное количество информации на эту тему. Исследователю крайне трудно разобраться в потоке информации, тратя много времени и сил на обобщение полученных данных. Все дело в том, что информация по нанотехнологиям несистематизированна и разобщена.
В нашем университете проводятся исследования нанопленок линейно-цепочечного углерода (ЛЦУ), полученных методом импульсно-плазменного ионно-стимулированного осаждения, интеркалированных и легированных различными химическими элементами. Исследованны оптические и электрические свойства нанопленок.
Целью данной работы является создание вычислительных моделей по свойствам продуктов нанотехнологий. В частности, объектом исследований мы выбрали линейно-цепочечный углерод.
В задачи работы входили:
- Аналитический обзор возможностей методов интеллектуального анализа данных.
-Сбор данных по электрическим свойствам нанопленок ЛЦУ, подготовка баз данных.
- Создание моделей свойств нанопленок с помощью искусственных нейронных сетей, позволяющих прогнозировать их свойства в зависимости от различных параметров.
Актуальность темы: в настоящее время накоплено много экспериментальных данных о свойствах и характеристиках различных наноматериалов. Вопрос состоит в том, что можно ли их обобщить и представить в виде модели, позволяющей предсказывать характеристики ранее не исследованных наноматериалов
Глава 1 Литературный обзор
1.1 Что такое DATA MINING
Основной задачей аналитика является генерация гипотез. Он решает ее, основываясь на своих знаниях и опыте. Однако знания есть не только у человека, но и в накопленных данных, которые подвергаются анализу. Такие знания часто называют "скрытыми", т.к. они содержатся в гигабайтах и терабайтах информации, которые человек не в состоянии исследовать самостоятельно, В связи с этим существует высокая вероятность пропустить гипотезы, которые могут принести значительную выгоду.
Очевидно, что для обнаружения скрытых знаний необходимо применять специальные методы автоматического анализа, при помощи которых приходится практически добывать знания из "завалов" информации. За этим направлением прочно закрепился термин добыча данных или Data Mining. Классическое определение этого термина дал в 1996 г. один из основателей этого направления Пятецкий-Шапиро.
Data Mining - исследование и обнаружение "машиной" (алгоритмами, средствами искусственного интеллекта) в сырых данных скрытых знаний, которые ранее не были известны, нетривиальны, практически полезны, доступны для интерпретации человеком.
Знания должны быть новые, ранее неизвестные. Затраченные усилия на открытие знаний, которые уже известны пользователю, не окупаются. Поэтому ценность представляют именно новые, ранее неизвестные знания.
Знания должны быть нетривиальны. Результаты анализа должны отражать неочевидные, неожиданные закономерности в данных, составляющие так называемые скрытые знания. Результаты, которые могли бы быть получены более простыми способами (например, визуальным просмотром), не оправдывают привлечение мощных методов Data Mining.
Знания должны быть практически полезны. Найденные знания должны быть применимы, в том числе и на новых данных, с достаточно высокой степенью достоверности. Полезность заключается в том, чтобы эти знания могли принести определенную выгоду при их применении.
Знания должны быть доступны для понимания человеку. Найденные закономерности должны быть логически объяснимы, в противном случае существует вероятность, что они являются случайными. Кроме того, обнаруженные знания должны быть представлены в понятном для человека виде.
1.2 Методы и стадии Data Mining
Основная особенность Data Mining - это сочетание широкого математического инструментария (от классического статистического анализа до новых кибернетических методов) и последних достижений в сфере информационных технологий. В технологии Data Mining гармонично объединились строго формализованные методы и методы неформального анализа, т.е. количественный и качественный анализ данных.
К методам и алгоритмам Data Mining относятся следующие: искусственные нейронные сети, деревья решений, символьные правила, методы ближайшего соседа и k-ближайшего соседа, метод опорных векторов, байесовские сети, линейная регрессия, корреляционно- регрессионный анализ; иерархические методы кластерного анализа, неиерархические методы кластерного анализа, в том числе алгоритмы k-средних и k-медианы; методы поиска ассоциативных правил, в том числе алгоритм Apriori; метод ограниченного перебора, эволюционное программирование и генетические алгоритмы, разнообразные методы визуализации данных и множество других методов.
Большинство аналитических методов, используемые в технологии Data Mining – это известные математические алгоритмы и методы. Новым в их применении является возможность их использования при решении тех или иных конкретных проблем, обусловленная появившимися возможностями технических и программных средств. Следует отметить, что большинство методов Data Mining были разработаны в рамках теории искусственного интеллекта.
Понятие алгоритма появилось задолго до создания электронных вычислительных машин. Сейчас алгоритмы являются основой для решения многих прикладных и теоретических задач в различных сферах человеческой деятельности, в большинстве - это задачи, решение которых предусмотрено с использованием компьютера. Алгоритм - точное предписание относительно последовательности действий преобразующих исходные данные в искомый результат.
Data Mining может состоять из двух или трех стадий.
Стадия 1. Выявление закономерностей (свободный поиск).
На стадии свободного поиска осуществляется исследование набора данных с целью поиска скрытых закономерностей. Предварительные гипотезы относительно вида закономерностей здесь не определяются. Система Data Mining на этой стадии определяет шаблоны, для получения которых в
системах OLAP, например, аналитику необходимо обдумывать и создавать множество запросов. Здесь же аналитик освобождается от такой работы - шаблоны ищет за него система. Особенно полезно применение данного подхода в сверхбольших базах данных, где уловить закономерность путем создания запросов достаточно сложно, для этого требуется перепробовать множество разнообразных вариантов.
Стадия 2. Использование выявленных закономерностей для предсказания неизвестных значений (прогностическое моделирование).
В дополнение к этим стадиям иногда вводят стадию валидации , следующую за стадией свободного поиска. Цель валидации - проверка достоверности найденных закономерностей. Однако, мы будем считать валидацию частью первой стадии, поскольку в реализации многих методов, в частности, нейронных сетей и деревьев решений, предусмотрено деление общего множества данных на обучающее и проверочное, и последнее позволяет проверять достоверность полученных результатов. Вторая стадия Data Mining - прогностическое моделирование - использует результаты работы первой стадии. Здесь обнаруженные закономерности используются непосредственно для прогнозирования. Прогностическое моделирование включает такие действия:
- предсказание неизвестных значений ;
- прогнозирование развития процессов .
В процессе прогностического моделирования решаются задачи классификации и прогнозирования. При решении задачи классификации результаты работы первой стадии (индукции правил)используются для отнесения нового объекта, с определенной уверенностью, к одному из известных, предопределенных классов на основании известных значений. При решении задачи прогнозирования результаты первой стадии используются для предсказания неизвестных (пропущенных или же будущих) значений целевой переменной .
Стадия 3. Анализ исключений - стадия предназначена для выявления и объяснения аномалий, найденных в закономерностях. На третьей стадии Data Mining анализируются исключения или аномалии, выявленные в
найденных закономерностях. Действие, выполняемое на этой стадии, - выявление отклонений. Для выявления отклонений необходимо определить норму, которая рассчитывается на стадии свободного поиска.
Все методы Data Mining подразделяются на две большие группы по принципу работы с исходными обучающими данными. В этой классификации верхний уровень определяется на основании того, сохраняются ли данные после Data Mining либо они дистиллируются для последующего использования.
1. Непосредственное использование данных, или сохранение данных.
В этом случае исходные данные хранятся в явном детализированном виде и
непосредственно используются на стадиях прогностического моделирования и/или анализа исключений. Проблема этой группы методов - при их использовании могут возникнуть сложности анализа сверхбольших баз данных.
Методы этой группы: кластерный анализ, метод ближайшего соседа, метод k-ближайшего соседа, рассуждение по аналогии.
2. Выявление и использование формализованных закономерностей, или дистилляция шаблонов. При технологии дистилляции шаблонов один образец (шаблон) информации извлекается из исходных данных и преобразуется в некие формальные конструкции, вид которых зависит от используемого метода Data Mining. Этот процесс выполняется на стадии
свободного поиска, у первой же группы методов данная стадия в принципе отсутствует. На стадиях прогностического моделирования и анализа исключений используются результаты стадии свободного поиска, они значительно компактнее самих баз данных. Методы этой группы: логические методы; методы визуализации; методы кросс-табуляции; методы, основанные на уравнениях.
Различные методы Data Mining характеризуются определенными свойствами, которые могут быть определяющими при выборе метода анализа данных. Методы можно сравнивать между собой, оценивая характеристики их свойств.
Среди основных свойств и характеристик методов Data Mining рассмотрим следующие: точность, масштабируемость, интерпретируемость, проверяемость, трудоемкость, гибкость, быстрота и популярность.
1.3 Классификация задач Data Mining
Методы Data Mining помогают решить многие задачи, с которыми сталкивается аналитик. Из них основными являются: классификация, регрессия, поиск ассоциативных правил и кластеризация. Ниже приведено краткое описание основных задач анализа данных.
· Задача классификации сводится к определению класса объекта по его характеристикам. Необходимо заметить, что в этой задаче множество классов, к которым может быть отнесен объект, заранее известно.
· Задача регрессии, подобно задаче классификации, позволяет определить по известным характеристикам объекта значение некоторого его параметра. В отличие от задачи классификации значением параметра является не конечное множество классов, а множество действительных чисел.
· При поиске ассоциативных правил целью является нахождение частых зависимостей (или ассоциаций) между объектами или событиями. Найденные зависимости представляются в виде правил и могут быть использованы как для лучшего понимания природы анализируемых данных, так и для предсказания появления событий.
· Задача кластеризации заключается в поиске независимых групп (кластеров) и их характеристик во всем множестве анализируемых данных. Решение этой задачи помогает лучше понять данные. Кроме того, группировка однородных объектов позволяет сократить их число, а следовательно, и облегчить анализ.
Перечисленные задачи по назначению делятся на описательные и предсказательные.
Описательные (descriptive) задачи уделяют внимание улучшению понимания анализируемых данных. Ключевой момент в таких моделях — легкость и прозрачность результатов для восприятия человеком. Возможно, обнаруженные закономерности будут специфической чертой именно конкретных исследуемых данных и больше нигде не встретятся, но это все равно может быть полезно и потому должно быть известно. К такому виду задач относятся кластеризация и поиск ассоциативных правил.
Решение предсказательных (predictive) задач разбивается на два этапа. На первом этапе на основании набора данных с известными результатами строится модель. На втором этапе она используется для предсказания результатов на основании новых наборов данных. При этом, естественно, требуется, чтобы построенные модели работали максимально точно. К данному виду задач относят задачи классификации и регрессии. Сюда можно отнести и задачу поиска ассоциативных правил, если результаты ее решения могут быть использованы для предсказания появления некоторых событий.
По способам решения задачи разделяют на supervised learning (обучение с учителем) и unsupervised learning (обучение без учителя). В первом случае, задача анализа данных решается в несколько этапов. Сначала с помощью какого-либо алгоритма Data Mining строится модель анализируемых данных - классификатор. Затем классификатор подвергается обучению. Другими словами, проверяется качество его работы и, если оно не удовлетворительно, происходит дополнительное обучение классификатора. Так продолжается до тех пор, пока не будет достигнут требуемый уровень качества или не станет ясно, что выбранный алгоритм не работает корректно данными, либо же сами данные не имеют структуры, которую можно выявить. К этому типу задач относят задачи классификации и регрессии.
Обучение без учителя объединяет задачи, выявляющие описательные модели, например закономерности в покупках, совершаемых клиентами большого магазина. Очевидно, что если эти закономерности есть, то модель должна их представить и неуместно говорить об ее обучении. Отсюда и название - unsupervised learning. Достоинством таких задач является возможность их решения без каких-либо предварительных знаний об анализируемых данных. К ним относятся задачи кластеризации и поиска ассоциативных правил.
1.4 Модели Data Mining
Цель технологии Data Mining – нахождение в данных таких моделей, которые не могут быть найдены обычными методами. Существуют два вида моделей: предсказательные и описательные.
Предсказательные(predictive) модели.
Предсказательные модели строятся на основании выбора данных с известными результатами. Они используются для предсказания результатов на основании других наборов данных. При этом, естественно, требуется, чтобы модель работала максимально точно, была статистически значима и оправданна и т.д.
К ним относятся следующие модели:
· классификации — описывают правила или набор правил, в соответствии с которыми можно отнести описание любого нового объекта к одному из классов. Такие правила строятся на основании информации о существующих объектах путем разбиения их на классы;
· закономерности последовательностей — описывают функции, позволяющие прогнозировать изменение непрерывных числовых параметров. Они строятся на основании данных об изменении некоторого параметра за прошедший период времени.
Описательные (descriptive) модели
Описательные модели уделяют внимание сути зависимостей в наборе данных взаимному влиянию различных факторов, т.е. на построении эмпирических моделей различных систем. Ключевой момент в таких моделях— легкость и прозрачность для восприятия человеком. Возможно, обнаруженные закономерности будут специфической чертой именно конкретных исследуемых данных и больше нигде не встретятся, но это все равно может быть полезно и потому должно быть известно.
К ним относятся следующие виды моделей:
· регрессионные — описывают функциональные зависимости между зависимыми и независимыми показателями и переменными в понятной человеку форме. Необходимо заметить, что такие модели описывают функциональную зависимость не только между непрерывными числовыми параметрами, но и между категориальными;
· кластеризации — описывают группы (кластеры), на которые можно разделить объекты, данные о которых подвергаются анализу. Группируются объекты (наблюдения, события) на основе данных (свойств), описывающих сущность объектов. Объекты внутри кластера должны быть "похожими" друг на друга и отличаться от объектов, вошедших в другие кластеры. Чем больше похожи объекты внутри кластера и чем больше отличий между кластерами, тем точнее кластеризация;
· исключений – описывают исключительные ситуации в записях (например, отдельных пациентов), которые резко отличаются чем-либо от основного множества записей (группы больных). Знание исключений может быть использовано двояким образом. Возможно, что эти записи представляют собой случайный сбой, например ошибки операторов, вводивших данные в компьютер. С другой стороны, отдельные, исключительные записи могут представлять самостоятельный интерес для исследования, т. к. они могут указывать на некоторые редкие, но важные аномальные заболевания. Даже сама идентификация этих записей, не говоря об их последующем анализе и детальном рассмотрении, может оказаться очень полезной для понимания сущности изучаемых объектов или явлений.
Для построения рассмотренных моделей используются различные методы и алгоритмы Data Mining. Ввиду того, что технология Data Mining развивалась и развивается на стыке таких дисциплин, как статистика, теория информации, машинное обучение, теория баз данных, вполне закономерно, что большинство алгоритмов и методов Data Mining были разработаны на основе различных технологий и концепций. Одной из технологий, часто реализуемой методами Data Mining , является технология нейронных сетей.
1.5 Теория нейронных сетей
Нейронные сети — это класс моделей, основанных на биологической аналогии с мозгом человека и предназначенных после прохождения этапа так называемого обучения на имеющихся данных для решения разнообразных задач анализа данных. При применении методов, прежде всего встает вопрос выбора конкретной архитектуры сети (числа "слоев" и количества "нейронов" в каждом из них). Размер и структура сети должны соответствовать (например, в смысле формальной вычислительной сложности) существу исследуемого явления. Поскольку на начальном этапе анализа природа явления обычно известна плохо, выбор архитектуры является непростой задачей и часто связан с длительным процессом "проб и ошибок" (однако в последнее время стали появляться нейронно - сетевые программы, в которых для решения трудоемкой задачи поиска наилучшей архитектуры сети применяются методы искусственного интеллекта).
Затем построенная сеть подвергается процессу обучения. На этом этапе нейроны сети итеративно обрабатывают входные данные и корректируют свои веса так, чтобы сеть наилучшим образом прогнозировала (в традиционных терминах следовало бы сказать "осуществляла подгонку") данные, на которых выполняется "обучение". После обучения на имеющихся данных сеть готова к работе и может использоваться для построения прогнозов.
Нейронная сеть, полученная в результате "обучения", выражает закономерности, присутствующие в данных. При таком подходе она оказывается функциональным эквивалентом некоторой модели зависимостей между переменными, подобной тем, которые строятся в традиционном моделировании. Однако, в отличие от традиционных моделей, в случае нейронных сетей эти зависимости не могут быть записаны в явном виде, подобно тому как это делается в статистике (например, "А положительно коррелированно с В для наблюдений, у которых величина С мала, а D велика"). Иногда нейронные сети выдают прогноз очень высокого качества; однако они представляют собой типичный пример нетеоретического подхода к исследованию (иногда это называют "черным ящиком"). При таком подходе сосредотачиваются исключительно на практическом результате, в данном случае на точности прогнозов и их прикладной ценности, а не на сути механизмов, лежащих в основе явления .или соответствии полученных результатов какой-либо имеющейся теории.
Следует, однако, отметить, что методы нейронных сетей могут применяться и в исследованиях, направленных на построение объясняющей модели явления, поскольку нейронные сети помогают изучать данные с целью поиска значимых переменных или групп таких переменных, и полученные результаты могут облегчить процесс последующего построения модели. Более того, сейчас имеются нейросетевые программы, которые с помощью сложных алгоритмов могут находить наиболее важные входные переменные, что уже непосредственно помогает строить модель.
Одно из главных преимуществ нейронных сетей состоит в том, что они, по крайней мере теоретически, могут аппроксимировать любую непрерывную функцию, и поэтому исследователю нет необходимости заранее принимать какие-либо гипотезы относительно модели и даже, в ряде случаев, о том, какие переменные действительно важны. Однако существенным недостатком нейронных сетей является то обстоятельство, что окончательное решение зависит от начальных установок сети и, как уже отмечалось, его практически невозможно интерпретировать в традиционных аналитических терминах, которые обычно применяются при построении теории явления.
К настоящему времени известно большое количество моделей нейроподобных элементов и нейронных сетей, некоторые из них рассмотрены в данной главе.
Некоторые проблемы, решаемые в контексте НС и представляющие интерес для пользователей:
Классификация образов.
Кластеризация/категоризация.
Аппроксимация функций.
Предсказание/прогноз.
Оптимизация.
Память, адресуемая по содержанию.
Управление.
Биологический нейрон.
Мозг человека и нервная система состоят из нейронов, которые соединены между собой нервными волокнами. Они в свою очередь способны передавать электрические импульсы между нейронами. Все процессы передачи раздражений от нашей кожи, ушей и глаз к мозгу, процессы мышления и управления действиями — все это реализовано в живом организме как передача электрических импульсов между нейронами.
Нейрон (нервная клетка) является особой биологической клеткой, которая обрабатывает информацию (рис. 3). Он состоит из тела и отростков нервных волокон двух типов — дендритов, по которым принимаются импульсы, и единственного аксона, по которому нейрон может передавать импульс. Тело нейрона включает ядро, которое содержит информацию о наследственных свойствах, и плазму, обладающую молекулярными средствами для производства необходимых нейрону материалов. Нейрон получает сигналы (импульсы) от аксонов других нейронов через дендриты (приемники) и передает сигналы, сгенерированные телом клетки, вдоль своего аксона (передатчик), который в конце разветвляется на волокна. На окончаниях этих волокон находятся специальные образования - синапсы, которые влияют на силу импульса.
Синапс является элементарной структурой и функциональным узлом между двумя нейронами (волокно аксона одного нейрона и дендрит другого).
Нейроподобная сеть
Нейроподобная сеть представляет собой совокупность нейроподобных элементов, определенным образом соединенных друг с другом и с внешней средой. Входной вектор (координирующий входное воздействие или образ внешней среды) подается на сеть путем активации входных нейроподобных элементов. Множество выходных сигналов нейронов сети y1, y2, ...,yN называют вектором выходной активности, или паттерном активности нейронной сети. Веса связей нейронов сети удобно представлять в виде матрицы W, где ij - вес связи между i- и j-м нейронами. В процессе функционирования (эволюции состояния) сети осуществляется преобразование входного вектора в выходной, т.е. некоторая переработка информации, которую можно интерпретировать, например, как функцию гетеро- или автоассоциативной памяти. Конкретный вид выполняемого сетью преобразования информации обусловливается не только характеристиками нейроподобных элементов, но и особенностями ее архитектуры, т.е. той или иной топологией межнейронных связей, выбором определенных подмножеств нейроподобных элементов для ввода и вывода информации или отсутствием конкуренции, направлением и способами управления и синхронизации информационных потоков между нейронами и т.д.
1.6 Классификация нейронных сетей
Одна из возможных классификаций нейронных сетей - по направленности связей.
Нейронные сети бывают с обратными связями и без обратных связей.
Сети без обратных связей
Сети с обратным распространением ошибки.
Сети этой группы характеризуются фиксированной структурой, итерационным обучением, корректировкой весов по ошибкам. Такие сети были рассмотрены в предыдущей лекции.
Другие сети (когнитрон, неокогнитрон, другие сложные модели).
Преимуществами сетей без обратных связей является простота их реализации и гарантированное получение ответа после прохождения данных по слоям.
Недостатком этого вида сетей считается минимизация размеров сети - нейроны многократно участвуют в обработке данных.
Меньший объем сети облегчает процесс обучения.
Сети с обратными связями
Сети Хопфилда (задачи ассоциативной памяти).
Сети Кохонена (задачи кластерного анализа).
Преимуществами сетей с обратными связями является сложность обучения, вызванная большим числом нейронов для алгоритмов одного и того же уровня сложности.
Недостатки этого вида сетей - требуются специальные условия, гарантирующие сходимость вычислений.
Другая классификация нейронных сетей: сети прямого распространения и рекуррентные сети.
Сети прямого распространения
Персептроны.
Сеть Back Propagation.
Сеть встречного распространения.
Карта Кохонена.
Рекуррентные сети.
Характерная особенность таких сетей - наличие блоков динамической задержки и обратных связей, что позволяет им обрабатывать динамические модели.
Сеть Хопфилда.
Сеть Элмана - сеть, состоящая из двух слоев, в которой скрытый слой охвачен динамической обратной связью, что позволяет учесть предысторию наблюдаемых процессов и накопить информацию для выработки правильной стратегии управления. Эти сети применяются в системах управления движущимися объектами.
Нейронные сети могут обучаться с учителем или без него.
При обучении с учителем для каждого обучающего входного примера требуется знание правильного ответа или функции оценки качества ответа. Такое обучение называют управляемым. Нейронной сети предъявляются значения входных и выходных сигналов, а она по определенному алгоритму подстраивает веса синаптических связей. В процессе обучения производится корректировка весов сети по результатам сравнения фактических выходных значений с входными, известными заранее.
При обучении без учителя раскрывается внутренняя структура данных или корреляции между образцами в наборе данных. Выходы нейронной сети формируются самостоятельно, а веса изменяются по алгоритму, учитывающему только входные и производные от них сигналы. Это обучение называют также неуправляемым. В результате такого обучения объекты или примеры распределяются по категориям, сами категории и их количество могут быть заранее не известны.
1.7. Подготовка данных для обучения
При подготовке данных для обучения нейронной сети необходимо обращать внимание на следующие существенные моменты.
Количество наблюдений в наборе данных. Следует учитывать тот фактор, что чем больше размерность данных, тем больше времени потребуется для обучения сети.
Работа с выбросами. Следует определить наличие выбросов и оценить необходимость их присутствия в выборке.
Обучающая выборка должна быть представительной (репрезентативной).
Обучающая выборка не должна содержать противоречий, так как нейронная сеть однозначно сопоставляет выходные значения входным.
Нейронная сеть работает только с числовыми входными данными, поэтому важным этапом при подготовке данных является преобразование и кодирование данных.
При использовании на вход нейронной сети следует подавать значения из того диапазона, на котором она обучалась. Например, если при обучении нейронной сети на один из ее входов подавались значения от 0 до 10, то при ее применении на вход следует подавать значения из этого же диапазона или близлежащие.
Существует понятие нормализации данных. Целью нормализации значений является преобразование данных к виду, который наиболее подходит для обработки, т.е. данные, поступающие на вход, должны иметь числовой тип, а их значения должны быть распределены в определенном диапазоне. Нормализатор может приводить дискретные данные к набору уникальных индексов либо преобразовывать значения, лежащие в произвольном диапазоне, в конкретный диапазон, например, [0..1]. Нормализация выполняется путем деления каждой компоненты входного вектора на длину вектора, что превращает входной вектор в единичный.
1.8 Выбор структуры нейронной сети
Выбор структуры нейронной сети обуславливается спецификой и сложностью решаемой задачи. Для решения некоторых типов задач разработаны оптимальные конфигурации .
В большинстве случаев выбор структуры нейронной сети определяется на основе объединения опыта и интуиции разработчика.
Однако существуют основополагающие принципы, которыми следует руководствоваться при разработке новой конфигурации:
возможности сети возрастают с увеличением числа ячеек сети, плотности связей между ними и числом выделенных слоев;
введение обратных связей наряду с увеличением возможностей сети поднимает вопрос о динамической устойчивости сети;
сложность алгоритмов функционирования сети (в том числе, например, введение нескольких типов синапсов - возбуждающих, тормозящих и др.) также способствует усилению мощи НС.
Вопрос о необходимых и достаточных свойствах сети для решения того или иного рода задач представляет собой целое направление нейрокомпьютерной науки. Так как проблема синтеза нейронной сети сильно зависит от решаемой задачи, дать общие подробные рекомендации затруднительно. Очевидно, что процесс функционирования НС, то есть сущность действий, которые она способна выполнять, зависит от величин синаптических связей, поэтому, задавшись определенной структурой НС, отвечающей какой-либо задаче, разработчик сети должен найти оптимальные значения всех переменных весовых коэффициентов (некоторые синаптические связи могут быть постоянными).
1.9. Кратко о ЛЦУ
Электронная структура молекулы линейно-цепочечного углерода (ЛЦУ) показана на рисунке 1. Сигма (σ) связь обеспечивает механическую устойчивость молекуле углеродного полимера, а пи (π) связь, кроме механической устойчивости, обеспечивает электрические свойства данного материала, поскольку π-электроны делокализованы и принадлежат всей цепочке атомов.
Валентная зона цепочки состоит из двух энергетических подзон ( и ). Поскольку высоколежащая -подзона заполнена только наполовину, углеродная цепочка должна иметь металлическую проводимость.
Рисунок 1 – Электронная структура молекулы линейно-цепочечного
углерода
Такая структура подтверждена многочисленными исследованиями. На рис.2 представлена модель пленки ЛЦУ.
Рисунок 2 – Удельная проводимость вдоль углеродной цепочки σу и перпендикулярно σx, σz различаются на шесть порядков. Σy /σx,z = 106
. С точки зрения электрофизики плёнка ЛЦУ состоит из гексагонально-расположенных квантовых нитей, двумерно связанных взаимодействием Ван-дер-Ваальса.
Другие свойства пленки ЛЦУ приведены в табл. 1.
Таблица 1
Твердость | Варьируется от 4000 до 9000 HV |
Адгезия | Адгезия на большинстве подложек (включая нержавеющую сталь, стекло, силиконовую резину) сильнее связей внутри подложки |
Толщина пленки | До 10 мкм (на твердых подложках). Рекомендуемая толщина для большинства применений 1000-2000 Å |
Скорость роста пленки | 1000 А/мин |
Покрываемые площади | До 150х150 мм. Более крупные детали могут покрываться при их вращении. |
Износостойкость | Чрезвычайно высокая, при малых нагрузках износостойкость ЛЦУ превосходит алмазоподобные пленки в 2.5 раза |
Морфологическая поверхность | Очень гладкая и однородная поверхность, шероховатость порядка 1 Å |
Коэффициент трения | 0.1-0.2 |
Глава 2. Методика исследования и результаты работы
2.1 Вычислительная модель электрических свойств двухслойных пленок лцу.
Анализ является неотъемлемой частью научных исследований. При этом в подавляющем большинстве случаев анализ сводится к применению одних и тех же базовых механизмов. Они являются универсальными и применимы к любой предметной области, благодаря чему имеется возможность создания унифицированной программной платформы, в которой реализованы основные механизмы анализ, такой как Deductor.
Deductor 5 предназначен для эффективного решения проблемы тиражирования знаний. Это аналитическая платформа, основа для создания законченных прикладных решений в области анализа данных. Реализованные в Deductor технолгии, позволяют на базе единой архитектуры пройти все этапы построения аналитической системы: от создания хранилища данных до автоматического подбора моделей и визуализации полученных результатов.
В настоящее время накоплено много экспериментальных данных о свойствах и характеристиках различных пленок ЛЦУ. Очевидно, что характеристики пленок связаны с составом и видом компонентов наноматериала, технологией изготовления, формой и размером. Задачей являлось собрать экспериментальные данные по электрофизическим свойствам легированных и интеркалированных трехслойных пленок ЛЦУ, в единую базу знаний, характеризующую связь между различными параметрами.
Параметры пленок ЛЦУ используемые в базе знаний:
1 номер элемента слоя
2 группа элемента слоя
3 толщина пленки ЛЦУ
4 напряжение
5 сила тока
Для создания базы данных использовались собственные экспериментальные данные, полученные в Чувашском государственном университете. Результаты приведены в Приложениях
На данном этапе создано несколько вычислительных моделей , которые позволяют прогнозировать электрофизические свойства пленок ЛЦУ в зависимости от атомов, внедренных в ЛЦУ, и толщины пленки: 1. Модель “Параметры вольт-амперной характеристики в зависимости от внедренных химических элементов - атомов”. Позволяет оценить силу тока для различных пленок ЛЦУ в зависимости от внедренного элемента 2. Модель “Параметры вольт-амперной характеристики в зависимости от толщины пленки ЛЦУ”. Позволяет оценить силу тока для пленок ЛЦУ различной толщины 3. Обобщенная модель “Вольт-амперной характеристики ЛЦУ”. Последняя модель позволяет предсказывать вольт-амперную характеристику любого нового сорта ЛЦУ.
Ниже приведено краткое описание моделей и их рисунки, иллюстрирующие полученные результаты. Все модели были получены с помощью аналитической платформы «Deductor Studio 5.2» c использованием средств Data Mining.
2.2. Предобработка данных
Предобработка данных - процедура подготовки данных к анализу в процессе которой они приводятся в соответствие с требованиями, определяемыми спецификой решаемой задачи.
Предобработка данных включает два направления: очистку и оптимизацию. Очистка производится с целью исключения факторов, снижающих качество данных и мешающих работе аналитических алгоритмов. Она включает обработку дубликатов, противоречий и фиктивных значений, восстановление и заполнение пропусков, сглаживание и очистку данных от шума, подавление и редактирование аномальных значений. Кроме этого, в процессе очистки восстанавливаются нарушения структуры, полноты и целостности данных, преобразуются некорректные форматы. Оптимизация данных, как элемент предобработки, включает снижение размерности входных данных, выявление и исключение незначащих признаков. Основное отличие оптимизации от очистки в том, что факторы, устраняемые в процессе очистки, существенно снижают точность решения задачи или делают работу аналитических алгоритмов невозможной. Проблемы, решаемые при оптимизации, адоптируют данные к конкретной задаче и повышают эффективность их анализа.
Очистка данных производится как перед их загрузкой в хранилище , так и в аналитическом приложении непосредственно перед анализом. При этом основная очистка производится в аналитическом приложении, поскольку некоторые проблемы (например, дубликаты и противоречия) невозможно выявить до завершения консолидации данных. Кроме этого, требования к качеству данных могут быть различными для различных методов и алгоритмов анализа.
Дубликаты и противоречия
В процессе анализа иногда возникает проблема выявления дубликатов и противоречий в данных. В Deductor Studio для автоматизации этого процесса есть соответствующий инструмент «Дубликаты и противоречия».
Противоречия - ситуация, когда в двух записях (обучающих примерах) одному и тому же набору значений входных атрибутов (признаков) соответствуют различные наборы значений выходных. Так, в задаче классификации это означает, что два объекта с абсолютно одинаковыми признаками относятся к различным классам. Наличие противоречивых записей является одним из факторов, ухудшающих качество данных. Противоречия искажают закономерности в данных, поиск которых и является целью анализа, что приводит к снижению точности аналитических моделей. Поэтому их исключение является одной из наиболее важных задач очистки данных. При обработке противоречий возможны два подхода. Первый предполагает, что противоречие вызвано ошибкой (например, неправильно указана метка класса). В этом случае запись с ошибкой достаточно просто удалить. Второй подход допускает, что записи, хотя и являются противоречивыми, но тем не менее отражают реальные события. В этом случае обычно производят объединение записей с агрегированием числовых значений выходных атрибутов.
Две или более записи называются дубликатами, если они содержат идентичные наборы значений всех признаков. Дублирующие записи (кроме одной) не несут никакой полезной информации и бесполезны с точки зрения обучения моделей. Большое количество дубликатов обедняет обучающее множество в информационном плане. Однако в некоторых случаях добавление дубликатов в обучающую выборку позволяет повысить эффективность обучения модели. Например, увеличивая или уменьшая число положительных или отрицательных примеров для бинарной классификационной модели путем дублирования, можно управлять соотношением ложно положительных и ложно отрицательных исходов классификации.
При использовании обработчика «Дубликаты и противоречия» возможно отображение результатов обработки с помощью одноименного визуализатора- таблицы. В результирующей таблице будут добавлены два поля логического типа "Противоречие" и "Дубликат", где для каждой записи исходных полей будет указан признак дубликата или противоречия. Кроме того, в набор будут включены два столбца целого типа "Группа противоречий" и "Группа дубликатов", содержащие номер группы для противоречивых и дублирующихся записей соответственно.
Рис 3. Таблица отображения дубликатов и противоречий
В большинстве случаев дубликаты и противоречия рассматриваются как негативный фактор, и в процессе очистки данных от них стремятся избавиться. По этому используя обработчик данных “ Фильтрация” , удаляем отмеченные строки из таблицы.
Парциальная обработка
В процессе парциальной обработки восстанавливаются пропущенные данные, редактируются аномальные значения, проводится спектральная обработка. В Deductor Studio при этом используются алгоритмы, в которых каждое поле анализируемого набора обрабатывается независимо от остальных полей, то есть данные обрабатываются по частям. По этой причине такая предобработка получила название парциальной. В числе процедур предобработки данных, реализованных в Deductor Studio, входят сглаживание, удаление шумов, редактирование аномальных значений, заполнение пропусков в рядах данных. Парциальная обработка выполняется для каждого поля независимо, и параметры обработки настраиваются для каждого поля отдельно. Парциальная обработка включает три алгоритма, каждому из которых соответствует свой шаг:
1) Восстановление пропущенных данных, который включает
- Аппроксимация - пропущенные данные восстанавливаются методом аппроксимации. |
- Максимальное правдоподобие - алгоритм подставляет наиболее вероятные значения вместо пропущенных данных.
2) Редактирование аномальных данных. Эта функция позволяет выбрать из списка возможную степень подавления аномальных значений - малую, среднюю или большую. Степень подавления определяет допустимую величину отклонения от нормы.
3) Спектральная обработка. Разновидность обработки данных, связанная с преобразованием их частотного представления или спектра. Спектр получается в результате разложения исходной функции, зависящей от времени или пространственных координат, в базис некоторой периодической функции. Наиболее часто для спектральной обработки используется спектр Фурье, получаемый на основе базиса синуса. В основе спектральной обработки лежит манипулирование спектром. Для манипуляций со спектрами используются фильтры – алгоритмы, способные управлять формой спектра, подавлять или усиливать его составляющие. Главным свойством любого фильтра является его амплитудно-частотная характеристика (АЧХ), от формы которой зависит преобразование спектра. Подбирая тип и форму частотной характеристики фильтра, можно добиться желаемого преобразования исходных данных путем спектральной обработки.
Спектральная обработка включает три способа обработки
- Сглаживание данных. Выполняя частотную фильтрацию данных с целью сглаживания необходимо правильно указать полосу пропускания ФНЧ. Если ее выбрать слишком большой, то степень сглаживания будет недостаточной, а шум будет подавлен не полностью. Если она будет слишком узкой, то вместе с шумом могут оказаться подавленными и изменения, несущие полезную информацию.
- Вычитание шума. Эта функция позволяет выбрать из списка возможную степень подавления шума - малую, среднюю или большую.
- Вейвлет преобразование - если выбран данный метод, то необходимо задать глубину разложения и порядок вейвлета. Глубина разложения определяет "масштаб" отсеиваемых деталей: чем больше эта величина, тем более "крупные" детали в исходных данных будут отброшены. При достаточно больших значениях параметра выполняется не только очистка данных от шума, но и их сглаживание ("отрезаются" резкие выбросы). Использование слишком больших значений глубины разложения может привести к потере полезной информации из-за слишком большой степени "огрубления" данных. Порядок вейвлета определяет гладкость восстановленного ряда данных: чем меньше значение параметра, тем ярче будут выражены "выбросы", и, наоборот, при больших значениях параметра "выбросы" будут сглажены.
Полученная таблица в результате парциальной обработки будет отличается от первоначальной.
Рис 4. таблица данных после парциальной обработки
Очистка данных является важнейшим этапом аналитического процесса и от того, насколько эффективно она произведена, во многом зависит корректность результатов анализа и точность построенных аналитических моделей.
Рис 5. Моделируемая ВАХ до проведения предобработки данных
Рис 6. моделируемая ВАХ после сглаживания и удаления негативных факторов
Корреляционный анализ
Корреляционный анализ применяется для оценки зависимости выходных полей данных от входных факторов и устранения незначащих факторов. Принцип корреляционного анализа состоит в поиске таких значений, которые в наименьшей степени коррелированы (взаимосвязаны) с выходным результатом. Такие факторы могут быть исключены из результирующего набора данных практически без потери полезной информации. Критерием принятия решения об исключении является порог значимости. Если корреляция между входным и выходным факторами меньше порога значимости, то соответствующий фактор отбрасывается как незначащий.
Корреляция может быть положительной и отрицательной . Отрицательная корреляция — корреляция, при которой увеличение одной переменной связано с уменьшением другой переменной, при этом коэффициент корреляции отрицателен. Положительная корреляция — корреляция, при которой увеличение одной переменной связано с увеличением другой переменной, при этом коэффициент корреляции положителен. Исключение незначащих факторов производится на основании рассчитанной корреляции.
Связь между признаками может быть сильной, средней и слабой.
Тесноту связи определяют по величине коэффициента корреляции, который может принимать значения от -1 до +1 включительно.
Рис 7. Критерии оценки тесноты связи
Поле может быть использовано в корреляционном анализе, если выполнено несколько условий:
1) Применение возможно в случае наличия достаточного количества случаев для изучения
2) Второе ограничение вытекает из гипотезы корреляционного анализа, в которую заложена линейная зависимость переменных. Во многих случаях, когда достоверно известно, что зависимость существует, корреляционный анализ может не дать результатов просто ввиду того, что зависимость не линейна
3) Поле имеет числовой тип данных
В выходной набор попадут информационные поля, столбцы, удовлетворяющие этим условиям, и все выходные столбцы.
Рис 8. Матрица корреляции
Можно сделать вывод, что больше всего с выходным значением коррелирует фактор «напряжение» - коэф.=0,494. Коэффициент положителен, т.е. чем больше напряжение, тем больше сила тока. Самый меньший коэффициент =-0,210(номер второго элемента ). Коэффициент отрицательный , т.е с увеличением номера второго элемента уменьшается сила тока.
Предобработка данных является важнейшим этапом аналитического процесса, и ее элементы выполняются на всех его шагах, начиная от OLTP-систем и заканчивая аналитическим приложением.
2.3. Структура и обучение нейронной сети
Выбор структуры нейронной сети обуславливается спецификой и сложностью решаемой задачи. Для решения некоторых типов задач разработаны оптимальные конфигурации .
В большинстве случаев выбор структуры нейронной сети определяется на основе объединения опыта и интуиции разработчика.
Можно выделить две базовые архитектуры - слоистые и полносвязные сети.
Слоистые нейронные сети - нейронные сети, в которых нейроны разбиты на отдельные группы (слои) так, что обработка информации осуществляется послойно. В слоистых сетях нейроны i-го слоя получают входные сигналы, преобразуют их и через точки ветвления передают нейронам (i+1) слоя. И так до k-го слоя, который выдает выходные сигналы для интерпретатора и пользователя. Число нейронов в каждом слое не связано с количеством нейронов в других слоях, может быть произвольным. В рамках одного слоя данные обрабатываются параллельно, а в масштабах всей сети обработка ведется последовательно - от слоя к слою.
Слоистые сети, в свою очередь, могут быть однослойными и многослойными. Для решения многих задач аппроксимации достаточно одного слоя нейронов.
Таким образом различные наборы значений номера элемента, группы элемента, толщины пленки ЛЦУ, напряжение (каждая строка таблицы 1) размещались на входном слое ИНС. Соответствующие значения силы тока хранились на выходном слое ИНС. В общей сложности ИНС состоит из одного входного слоя (шесть нейронов входа), один скрытый слой (десять нейронов) и один выходной слой (один нейрон).
Перед использованием нейронной сети ее необходимо обучить.
Процесс обучения нейронной сети заключается в подстройке ее внутренних параметров под конкретную задачу. Алгоритм работы нейронной сети является интерактивным, его шаги называют эпохами или циклами. Процесс обучения осуществляется на обучающей выборке. Обучающая выборка включает входные значения и соответствующие им выходные значения набора данных. В ходе обучения нейронная сеть находит некие зависимости выходных полей от входных.
В процессе обучения необходимо определить количество скрытых слоев и число нейронов в каждом слое. Далее необходимо назначить такие значения весов и смещений, которые смогут минимизировать ошибку решения. Веса и смещения автоматически настраиваются таким образом, чтобы минимизировать разность между желаемым и полученным на выходе сигналами, которая называется ошибка обучения. От качества обучения нейронной сети зависит ее способность решать поставленные перед ней задачи.
Задачей моделирования в нашем случае является задача аппроксимации 6-мерной экспериментальной функции. Затем была выбрана соответствующая собранной базе данных архитектура ИНС (рис. 5) и проведено ее «обучение». Обучение заключалось в том, что различные наборы значений первых шести столбцов Таблицы 1 подавались на входной слой ИНС, а соответствующие значения силы тока устанавливались в выходном слое ИНС и с помощью известного метода обучения ИНС – метода «обратного распространения ошибки» создавалась вычислительная ИНС-модель вольтамперной характеристики .
Рис 9. структура нейронной сети
ИНС-модель
В данной работе представлены результаты и описание создания модели “Обобщенная модель Вольт-амперной характеристики ЛЦУ”. Данная модель позволяет предсказывать вольт-амперную характеристику любого нового сорта ЛЦУ.
Схема построения модели была следующая. Были собраны данные по вольтамперным характеристикам исследуемых пленок ЛЦУ, отличающихся сортом внедренных в пленку атомов и толщиной пленки. Затем была подобрана соответствующая величине собранной базе данных архитектура ИНС и проведено ее «обучение». После обучения создавалась вычислительная ИНС-модель вольт-амперной характеристики пленок ЛЦУ.
Задачей моделирования в данном случае является задача аппроксимации 4-мерной экспериментальной функции. Полученный «чёрный ящик» может использоваться для определения (прогнозирования) вольт-амперной характеристики ЛЦУ для различных комбинаций внедренных в ЛЦУ элементов периодической таблицы Менделеева без проведения экспериментов следующим образом. Номера и группы элементов, толщина пленки ЛЦУ и одно интересующее значение напряжения устанавливаются во входном слое ИНС. После этого «черный ящик» мгновенно вычисляет соответствующее этому набору данных значение тока, а также непосредственно всю вольт-амперную характеристику.
Примеры полученных результатов представлены на следующих рисунках:
Рис 10. Аппроксимация вольт-амперной характеристики ЛЦУ с внедренными в нее атомами кадмия при толщине пленки 2000 нм.
Рис 11. Прогнозируемая вольт-амперная характеристика пленки ЛЦУ с внедренными в нее атомами стронция при толщине
пленки 2000 нм.
Как мы видим существует разница в рисунках 1 и 2. Это различие свидетельствует о зависимости тока насыщения от вида внедренного элемента.
Анализ по этому методу позволяет исследовать, как будет вести себя построенная система обработки при подаче на ее вход тех или иных данных. Проще говоря, проводится эксперимент, в котором, изменяя значения входных полей (в данном случае меняем значения ”номер элемента” и “номер группы”) обучающей или рабочей выборки нейронной сети или дерева решений, наблюдаем за изменением значений на выходе( силы тока).
Так же обрабатывая таблицу с разными элементами возможно построение зависимости силы тока от внедренного элемента.
Рис 12. Визуальное отображение зависимости силы тока от номера внедренного элемента
Рис 13. Визуальное отображение зависимости силы тока от группы внедренного элемента
Иллюстрации приведенные выше показывают, что созданная модель ИНС позволяет вычислить значение силы тока для любой комбинации внедряемых элементов и представление зависимости силы тока от какого-либо параметра. А так же прогнозирование вольт-амперной характеристики для раннее не исследованной комбинации внедренных элементов.
2.4. Анализ качества обучения нейронной сети
От качества обучения нейронной сети зависит ее способность решать поставленные перед ней задачи. Визуализатор для оценивания точности работы нейронных моделей представляет собой график, на котором по горизонтальной оси откалываются целевые значения обучающих примеров, а по вертикальной – значения, оцененные моделью. Тогда каждая пара целевого Y и оцененного Y’ значений может быть представлена на диаграмме в виде точки.
Множество точек, для которых оцененное значение будет равно реальному, образует так называемую линию идеальных значений, для каждой точки которой выполняется равенство Y=Y’. Остальные точки, образованные примерами, на которых модель допустила ошибку, будут рассеяны вдоль линии. По степени их рассеяния можно оценить точность модели. Если большая их часть расположена достаточно близко к линии, а значительные отклонения редки или совсем отсутствуют, то модель работает хорошо.
Рис 16. Диаграмма рассеяния действительных значений и значений, рассчитанных по уравнению регрессии.
Если разброс точек велик, то ее точность низкая.
Рис 17. Диаграмма рассеяния до предобработки данных
На практике при визуализации диаграммы обычно строят две линии, соответствующие допустимому уровню ошибки E = Y - Y’ (пунктирные линии на рисунке). Если большая часть точек лежит в пределах установленного ими «коридора», то можно утверждать, что модель работает хорошо. Если точки имеют значительный разброс и большая их часть расположена вне «коридора», то точность модели низкая . Допустимая ошибка определяется аналитиком исходя из особенностей решаемой задачи.
При обучении нейронных сетей часто возникает серьезная трудность, называемая проблемой переобучения. Переобучение, или чрезмерно близкая подгонка - излишне точное соответствие нейронной сети конкретному набору обучающих примеров, при котором сеть теряет способность к обобщению.
Переобучение возникает в случае слишком долгого обучения, недостаточного числа обучающих примеров или переусложненной структуры нейронной сети. Переобучение связано с тем, что выбор обучающего (тренировочного) множества является случайным. С первых шагов обучения происходит уменьшение ошибки. На последующих шагах с целью уменьшения ошибки (целевой функции) параметры подстраиваются под особенности обучающего множества. Однако при этом происходит
"подстройка" не под общие закономерности ряда, а под особенности его части -обучающего подмножества. При этом точность прогноза уменьшается.
В этом случае выдаваемые результаты из обученной нейросети не будут являться правдивыми.
Рис 18. Пример переобучения нейросети
Один из вариантов борьбы с переобучением сети - правильный выбор архитектуры нейронной сети и количества нейронов в скрытых слоях.
2.5. Проверка и оценка моделей
Проверка модели подразумевает проверку ее достоверности или адекватности. Эта проверка заключается в определении степени соответствия модели реальности. Адекватность модели проверяется путем тестирования.
Адекватность модели - соответствие модели моделируемому объекту
или процессу. Понятия достоверности и адекватности являются условными, поскольку мы не можем рассчитывать на полное соответствие модели реальному объекту, иначе это был бы сам объект, а не модель. Поэтому в процессе моделирования следует учитывать адекватность не модели вообще, а именно тех ее свойств, которые являются существенными с точки зрения проводимого исследования.
Оценка модели подразумевает проверку ее правильности. Оценка построенной модели осуществляется путем ее тестирования. Тестирование модели заключается в "прогонке" построенной модели, заполненной данными, с целью определения ее характеристик, а также в проверке ее работоспособности. Тестирование модели включает в себя проведение множества экспериментов. На вход модели могут подаваться выборки различного объема. С точки зрения статистики, точность модели увеличивается с увеличением количества исследуемых данных. Алгоритмы, являющиеся основой для построения моделей на сверхбольших базах данных, должны обладать свойством масштабирования.
Если модель достаточно сложна, а значит, требуется много времени на ее обучение и последующую оценку, то иногда бывает можно построить и протестировать модель на небольшой части выборки. Однако этот вариант подходит только для однородных данных. Построенные модели рекомендуется тестировать на различных выборках для определения их обобщающих способностей. В ходе экспериментов можно варьировать объем выборки (количество записей), набор входных и выходных переменных, использовать выборки различной сложности.
Одним из наиболее распространенных методов проверки аналитических моделей является перекрестная проверка с исключением.
Перекрестная проверка-метод формирования обучающего и тестового множеств для обучения аналитической модели в условиях недостаточности исходных данных или неравномерного представления классов. В его основе лежит разделение исходного множества данных на k примерно равных блоков, например k = 5. Затем на k - 1, т.е. на 4-х блоках, производится обучение модели, а 5-й блок используется для тестирования. Процедура повторяется k раз, при этом на каждом проходе для проверки выбирается новый блок, а обучение производится на оставшихся. Иными словами разбиваем рабочую выборку на пять частей, после чего удаляем из таблицы одну часть выборки (к примеру 50 строк) и обучаем модель на оставшихся четырех. После чего по методу “что-если” пробуем получить выходную характеристику пятой выборки при фиксированных входных значениях. Далее меняем блоки местами и повторяем обучение, и так пять раз.
номер блока | номер элемента | группа элемента | толщина пленки ЛЦУ | напряжение В | реал.сила тока А | пров. сила тока |
1 | 48 | 2 | 2000 | -2,76E+00 | -5,99E-03 | -5,85E-02 |
1 | 48 | 2 | 2000 | -2,03E+00 | -3,64E-03 | -3,71Е-02 |
2 | 14 | 4 | 1000 | 2,52E+01 | 2,09E-03 | 2,14Е-03 |
2 | 14 | 4 | 1000 | 1,30E+01 | 1,72E-04 | 1,62Е-04 |
3 | 52 | 6 | 2000 | -7,73E+00 | -9,19E-03 | -9,02Е-03 |
3 | 52 | 6 | 2000 | -6,52E+00 | -5,34E-03 | -5,43Е-03 |
4 | 22 | 4 | 1000 | -2,47E+00 | -6,39E-02 | -6,45Е-02 |
4 | 22 | 4 | 1000 | -2,07E+00 | -5,36E-02 | -5,24Е-02 |
5 | 48 | 2 | 1000 | 1,61E+00 | 4,52E-01 | 4,65Е-01 |
5 | 48 | 2 | 1000 | 1,79E+00 | 5,00E-01 | 4,96Е-01 |
Рис.19 Данные перекрестной проверки нейросети
Из таблицы видно, что моделируемые выходные значение не на много отличаются от реальных, по этому можно считать что модель соответствует реальности и поставленным задачам.
Полученные данные и их обсуждение
Проведен сбор данных по электрическим свойствам пленок ЛЦУ легированных и интеркалированных различными материалами.
Подготовлена база данных в области линейно – цепочного углерода. В нее вошли результаты исследований В.Д. Кочакова.
База данных представляет собой таблицу Microsoft Excel включающую в себя 7 столбцов и 150 строк. Они являются отражением свойств пленок линейно – цепочного углерода систематизированных и преобразованных в цифровую, удобную для анализа форму.
Созданы вычислительные модели, позволяющей предсказывать свойства ЛЦУ для ранее не исследованных условий без проведения дополнительных экспериментов.
Методы интеллектуального анализа данных позволяет существенно увеличить значение уже полученных экспериментальных результатов, а также получить новые “экспериментальные” результаты и выявить новые неизвестные ранее, но содержащиеся в экспериментальных данных, закономерности между свойствами пленок ЛЦУ.
Заключение.
Методы интеллектуального анализа данных широко применяются в различных областях науки, особенно в экономике, областях прогнозирования, социальных задачах, задачах контроля и управления. Применение нейронных сетей в физических исследованиях на сегодняшний день является перспективным направлением.
Преимущества использование методов интеллектуального анализа данных:
параллелизм обработки информации;
выявление скрытых закономерностей
взаимосвязей между переменными
единый и эффективный принцип обучения;
надежность функционирования;
способность решать не формализованные задачи;
В ходе работы были получены следующие результаты:
Создана база знаний по электрофизическим свойствам пленок ЛЦУ.
Созданы вычислительные модели, позволяющей предсказывать свойства ЛЦУ ранее не исследованных условий без проведения дополнительных экспериментов.
Методы интеллектуального анализа данных позволяет существенно увеличить значение уже полученных экспериментальных результатов, а также получить новые “экспериментальные” результаты и выявить новые неизвестные ранее, но содержащиеся в экспериментальных данных, закономерности между свойствами пленок ЛЦУ.
Список использованных источников
1. Анил К. Джей Введение в искусственные нейронные сети. // Открытые системы №04/97. -168 с.
Джеффри Е. Хинтон. Как обучаются нейронные сети. // В мире науки. 1992. № 11, 12. C. 103-107.
Кальченко Д. Нейронные сети: на пороге будущего.// Компьютер пресс. 2005.№ 1.
Круглов В.В., Борисов В.В. Искусственные нейронные сети.- М.: Горячая линия - Телеком, 2002.-382с.
Соболев С. Л. Уравнения математической физики. М.: Гостехиздат, 1954. 428 с.
Simon Haykin. Neural Networks. A Comprehensive Foundation. Macmillan College Publishing Company, Mew York, 1994
Peterson C. Rьgnvaldsson T. An Introduction to Artifitial Neural Networks // CERN School of Computing, 1991
Hecht-Nielsen Robert. Neurocomputing. Addison-Wesley Publishing Company, 1991.
“Аллотропия углерода”.Р.Б.Хайманн, С.Е.Евсюков. Статья в журнале «Природа», №8, 2003.
Чубукова И.А. Нейронные сети// Самоорганизующиеся карты Кохонена. [Электронный ресурс] Режим доступа: http://www.intuit.ru/department/database/datamining/12/
- - Дата доступа: 25.04.2010.
"Wikipedia about Data Mining" (http://en.wikipedia.org/wiki/Data_mining)
"Data Mining Tutorials" (http://www.eruditionhome.com/datamining/tut.html)
"Thearling intro paper" (http://www.thearling.com/text/dmwhite/dmwhite.htm)
"Что такое Data mining?“ (http://www.megaputer.ru/doc.php?classroom/whatis_dm/whatis_dm.html)
"INTUIT.ru: Учебный курс - Data Mining“ (http://www.intuit.ru/department/database/datamining/)
"Data Mining - подготовка исходных данных“ (http://www.basegroup.ru/tasks/datamining_prepare.htm)
Дюк В., Самойленко А. Data mining: учебный курс. – СПб: Питер, 2001. – 368 с.
Круглов В.В., Борисов В.В. Искусственные нейронные сети. – М.: Горячая линия – Телеком, 2002. – 382 с.
Neural Networks for Instrumentation, Measurement and Related Industrial Applications. Proceedings of the NATO Advanced Study Institute on Neural Networks for Instrumentation, Measurement, and Related Industrial Applications (9-20 October 2001, Crema, Italy) / ed. by Sergey Ablameyko, Liviu Goras, Marco Gori and Vincenzo Piuri, IOS Press, Series 3: Computer and Systems Sciences, 2003, Vol. 185, Amsterdam.
Аналитическая платформа «Дедуктор»: www.basegroup/ru.
Кочаков В.Д., Новиков Н.Д., Яблоков М.Ю., Ерёмкин А.В., Васильев А.И. Способ модификации металлами пленок углерода в sp1 состоянии. Актуальные проблемы гуманитарных и естественных наук, 2009, N 12, с. 12-17.
Кочаков В.Д., Новиков Н.Д., Яблоков М.Ю., Ерёмкин А.В., Васильев А.И. Металлоуглеродные системы на основе углерода в состоянии sp1. Актуальные проблемы гуманитарных и естественных наук, 2009, N 12, с. 17-20.
Guseva M.B., Babaev V.G., Novikov N.D. PCT Patent. International Application Number PCT/IB96/01487. December 18 (1996); WO 97/25078, July 17 (1997). US Patent 6.454.797 B2, US Patent 6.335.350 Bl.
Новиков Н.Д., В.Д. Кочаков, Г.Г. Телегин. Состояние исследований и перспективы использования пленок ЛЦУ в наноэлектронике. Нанотехника. – 2006. - № 2. - С. 3-8
Приложение № 1
номер элемента | группа элемента | толщина пленки ЛЦУ | напряжение В | сила тока А |
48 | 2 | 2000 | -3,00E+00 | -6,85E-03 |
48 | 2 | 2000 | -2,76E+00 | -5,99E-03 |
48 | 2 | 2000 | -2,51E+00 | -5,15E-03 |
48 | 2 | 2000 | -2,27E+00 | -4,37E-03 |
48 | 2 | 2000 | -2,03E+00 | -3,64E-03 |
48 | 2 | 2000 | -1,79E+00 | -2,98E-03 |
48 | 2 | 2000 | -1,55E+00 | -2,38E-03 |
48 | 2 | 2000 | -1,30E+00 | -1,84E-03 |
48 | 2 | 2000 | -1,06E+00 | -1,36E-03 |
48 | 2 | 2000 | -8,18E-01 | -9,43E-04 |
48 | 2 | 2000 | -5,76E-01 | -5,88E-04 |
48 | 2 | 2000 | -3,33E-01 | -2,96E-04 |
48 | 2 | 2000 | -9,06E-02 | -7,04E-05 |
48 | 2 | 2000 | 1,51E-01 | 1,19E-04 |
48 | 2 | 2000 | 3,94E-01 | 3,60E-04 |
48 | 2 | 2000 | 6,37E-01 | 6,64E-04 |
48 | 2 | 2000 | 8,79E-01 | 1,03E-03 |
48 | 2 | 2000 | 1,12E+00 | 1,45E-03 |
48 | 2 | 2000 | 1,36E+00 | 1,94E-03 |
48 | 2 | 2000 | 1,61E+00 | 2,48E-03 |
48 | 2 | 2000 | 1,85E+00 | 3,08E-03 |
48 | 2 | 2000 | 2,09E+00 | 3,75E-03 |
48 | 2 | 2000 | 2,33E+00 | 4,51E-03 |
48 | 2 | 2000 | 2,58E+00 | 5,31E-03 |
48 | 2 | 2000 | 2,82E+00 | 6,18E-03 |
47 | 1 | 1000 | -3,00E+00 | -7,60E-01 |
47 | 1 | 1000 | -2,76E+00 | -6,90E-01 |
47 | 1 | 1000 | -2,51E+00 | -6,29E-01 |
47 | 1 | 1000 | -2,27E+00 | -5,69E-01 |
47 | 1 | 1000 | -2,03E+00 | -5,08E-01 |
47 | 1 | 1000 | -1,79E+00 | -4,49E-01 |
47 | 1 | 1000 | -1,55E+00 | -3,89E-01 |
47 | 1 | 1000 | -1,30E+00 | -3,28E-01 |
47 | 1 | 1000 | -1,06E+00 | -2,67E-01 |
47 | 1 | 1000 | -8,17E-01 | -2,06E-01 |
47 | 1 | 1000 | -5,76E-01 | -1,46E-01 |
47 | 1 | 1000 | -3,33E-01 | -8,44E-02 |
47 | 1 | 1000 | -9,01E-02 | -2,31E-02 |
47 | 1 | 1000 | 1,52E-01 | 3,82E-02 |
47 | 1 | 1000 | 3,95E-01 | 9,96E-02 |
47 | 1 | 1000 | 6,36E-01 | 1,61E-01 |
47 | 1 | 1000 | 8,79E-01 | 2,22E-01 |
47 | 1 | 1000 | 1,12E+00 | 2,83E-01 |
47 | 1 | 1000 | 1,36E+00 | 3,44E-01 |
47 | 1 | 1000 | 1,61E+00 | 4,05E-01 |
47 | 1 | 1000 | 1,85E+00 | 4,65E-01 |
47 | 1 | 1000 | 2,09E+00 | 5,28E-01 |
47 | 1 | 1000 | 2,33E+00 | 5,89E-01 |
47 | 1 | 1000 | 2,58E+00 | 6,50E-01 |
47 | 1 | 1000 | 2,82E+00 | 7,06E-01 |
52 | 6 | 2000 | -1,50E+01 | -2,56E-02 |
52 | 6 | 2000 | -1,38E+01 | -4,60E-02 |
52 | 6 | 2000 | -1,26E+01 | -3,84E-02 |
52 | 6 | 2000 | -1,14E+01 | -2,93E-02 |
52 | 6 | 2000 | -1,02E+01 | -2,13E-02 |
52 | 6 | 2000 | -8,94E+00 | -1,44E-02 |
52 | 6 | 2000 | -7,73E+00 | -9,19E-03 |
52 | 6 | 2000 | -6,52E+00 | -5,34E-03 |
52 | 6 | 2000 | -5,30E+00 | -2,85E-03 |
52 | 6 | 2000 | -4,09E+00 | -1,42E-03 |
52 | 6 | 2000 | -2,88E+00 | -6,08E-04 |
52 | 6 | 2000 | -1,67E+00 | -1,99E-04 |
52 | 6 | 2000 | -4,54E-01 | -2,82E-05 |
52 | 6 | 2000 | 7,58E-01 | 4,26E-05 |
52 | 6 | 2000 | 1,97E+00 | 1,30E-04 |
52 | 6 | 2000 | 3,18E+00 | 2,75E-04 |
52 | 6 | 2000 | 4,39E+00 | 4,88E-04 |
52 | 6 | 2000 | 5,61E+00 | 8,24E-04 |
52 | 6 | 2000 | 6,82E+00 | 1,32E-03 |
52 | 6 | 2000 | 8,03E+00 | 1,72E-03 |
52 | 6 | 2000 | 9,24E+00 | 2,16E-03 |
52 | 6 | 2000 | 1,05E+01 | 2,45E-03 |
52 | 6 | 2000 | 1,17E+01 | 2,72E-03 |
52 | 6 | 2000 | 1,29E+01 | 2,86E-03 |
52 | 6 | 2000 | 1,41E+01 | 3,12E-03 |
48 | 2 | 1000 | -1,75E+00 | -5,00E-01 |
48 | 2 | 1000 | -1,77E+00 | -5,00E-01 |
48 | 2 | 1000 | -1,78E+00 | -5,00E-01 |
48 | 2 | 1000 | -1,79E+00 | -5,00E-01 |
48 | 2 | 1000 | -1,79E+00 | -5,00E-01 |
48 | 2 | 1000 | -1,79E+00 | -4,99E-01 |
48 | 2 | 1000 | -1,55E+00 | -4,32E-01 |
48 | 2 | 1000 | -1,30E+00 | -3,65E-01 |
48 | 2 | 1000 | -1,06E+00 | -2,99E-01 |
48 | 2 | 1000 | -8,18E-01 | -2,31E-01 |
48 | 2 | 1000 | -5,75E-01 | -1,64E-01 |
48 | 2 | 1000 | -3,33E-01 | -9,50E-02 |
48 | 2 | 1000 | -9,07E-02 | -2,60E-02 |
48 | 2 | 1000 | 1,52E-01 | 4,31E-02 |
48 | 2 | 1000 | 3,95E-01 | 1,12E-01 |
48 | 2 | 1000 | 6,37E-01 | 1,81E-01 |
48 | 2 | 1000 | 8,79E-01 | 2,50E-01 |
48 | 2 | 1000 | 1,12E+00 | 3,18E-01 |
48 | 2 | 1000 | 1,36E+00 | 3,85E-01 |
48 | 2 | 1000 | 1,61E+00 | 4,52E-01 |
48 | 2 | 1000 | 1,79E+00 | 5,00E-01 |
48 | 2 | 1000 | 1,80E+00 | 5,00E-01 |
48 | 2 | 1000 | 1,80E+00 | 5,00E-01 |
48 | 2 | 1000 | 1,80E+00 | 5,00E-01 |
48 | 2 | 1000 | 1,80E+00 | 5,00E-01 |
14 | 4 | 2000 | -3,00E+01 | -1,40E-03 |
14 | 4 | 2000 | -2,76E+01 | -1,20E-03 |
14 | 4 | 2000 | -2,51E+01 | -1,02E-03 |
14 | 4 | 2000 | -2,27E+01 | -8,18E-04 |
14 | 4 | 2000 | -2,03E+01 | -6,46E-04 |
14 | 4 | 2000 | -1,79E+01 | -4,95E-04 |
14 | 4 | 2000 | -1,55E+01 | -3,80E-04 |
14 | 4 | 2000 | -1,36E+01 | -3,11E-04 |
14 | 4 | 2000 | -1,12E+01 | -2,40E-04 |
14 | 4 | 2000 | -8,79E+00 | -1,82E-04 |
14 | 4 | 2000 | -6,36E+00 | -1,28E-04 |
14 | 4 | 2000 | -3,94E+00 | -7,61E-05 |
14 | 4 | 2000 | -1,51E+00 | -2,45E-05 |
14 | 4 | 2000 | 9,10E-01 | 2,30E-06 |
14 | 4 | 2000 | 3,34E+00 | 1,89E-05 |
14 | 4 | 2000 | 5,76E+00 | 3,81E-05 |
14 | 4 | 2000 | 8,18E+00 | 6,57E-05 |
14 | 4 | 2000 | 1,06E+01 | 1,09E-04 |
14 | 4 | 2000 | 1,30E+01 | 1,72E-04 |
14 | 4 | 2000 | 1,55E+01 | 2,81E-04 |
14 | 4 | 2000 | 1,79E+01 | 4,74E-04 |
14 | 4 | 2000 | 2,03E+01 | 8,77E-04 |
14 | 4 | 2000 | 2,27E+01 | 1,38E-03 |
14 | 4 | 2000 | 2,52E+01 | 2,09E-03 |
14 | 4 | 2000 | 2,76E+01 | 2,93E-03 |
14 | 4 | 2000 | 3,00E+01 | 4,10E-03 |
7 | 5 | 1000 | -1,21E+00 | -1,00E-02 |
7 | 5 | 1000 | -1,20E+00 | -1,00E-02 |
7 | 5 | 1000 | -1,21E+00 | -1,00E-02 |
7 | 5 | 1000 | -1,21E+00 | -1,00E-02 |
7 | 5 | 1000 | -1,20E+00 | -1,00E-02 |
7 | 5 | 1000 | -1,20E+00 | -1,00E-02 |
7 | 5 | 1000 | -1,20E+00 | -1,00E-02 |
7 | 5 | 1000 | -1,12E+00 | -9,25E-03 |
7 | 5 | 1000 | -8,78E-01 | -6,92E-03 |
7 | 5 | 1000 | -6,36E-01 | -4,79E-03 |
7 | 5 | 1000 | -3,93E-01 | -2,85E-03 |
7 | 5 | 1000 | -2,97E-02 | -2,13E-04 |
7 | 5 | 1000 | 2,13E-01 | 1,48E-03 |
7 | 5 | 1000 | 4,55E-01 | 3,31E-03 |
7 | 5 | 1000 | 6,97E-01 | 5,48E-03 |
7 | 5 | 1000 | 9,40E-01 | 7,73E-03 |
7 | 5 | 1000 | 1,17E+00 | 1,00E-02 |
7 | 5 | 1000 | 1,17E+00 | 1,00E-02 |
7 | 5 | 1000 | 1,16E+00 | 1,00E-02 |
7 | 5 | 1000 | 1,16E+00 | 1,00E-02 |
7 | 5 | 1000 | 1,16E+00 | 1,00E-02 |
7 | 5 | 1000 | 1,16E+00 | 1,00E-02 |
7 | 5 | 1000 | 1,16E+00 | 1,00E-02 |
7 | 5 | 1000 | 1,16E+00 | 1,00E-02 |
22 | 4 | 2000 | -3,87E+00 | -1,00E-01 |
22 | 4 | 2000 | -3,90E+00 | -1,00E-01 |
22 | 4 | 2000 | -3,93E+00 | -1,00E-01 |
22 | 4 | 2000 | -3,69E+00 | -9,49E-02 |
22 | 4 | 2000 | -3,28E+00 | -8,48E-02 |
22 | 4 | 2000 | -2,88E+00 | -7,40E-02 |
22 | 4 | 2000 | -2,47E+00 | -6,39E-02 |
22 | 4 | 2000 | -2,07E+00 | -5,36E-02 |
22 | 4 | 2000 | -1,67E+00 | -4,31E-02 |
22 | 4 | 2000 | -1,26E+00 | -3,26E-02 |
22 | 4 | 2000 | -8,58E-01 | -2,22E-02 |
22 | 4 | 2000 | -4,54E-01 | -1,18E-02 |
22 | 4 | 2000 | -5,03E-02 | -1,31E-03 |
22 | 4 | 2000 | 3,54E-01 | 9,11E-03 |
22 | 4 | 2000 | 7,58E-01 | 1,95E-02 |
22 | 4 | 2000 | 1,16E+00 | 3,00E-02 |
22 | 4 | 2000 | 1,57E+00 | 4,03E-02 |
22 | 4 | 2000 | 1,97E+00 | 5,06E-02 |
22 | 4 | 2000 | 2,37E+00 | 6,08E-02 |
22 | 4 | 2000 | 2,78E+00 | 7,10E-02 |
22 | 4 | 2000 | 3,18E+00 | 8,09E-02 |
22 | 4 | 2000 | 3,59E+00 | 9,07E-02 |
22 | 4 | 2000 | 3,91E+00 | 1,00E-01 |
22 | 4 | 2000 | 3,92E+00 | 1,00E-01 |
22 | 4 | 2000 | 3,83E+00 | 1,00E-01 |
РЕЦЕНЗИЯ
на дипломный проект на тему:
“Создание моделей свойств двухслойных пленочных структур на основе линейно-цепочечного углерода с помощью DATA MINING ”
выполненый выпускницей факультета ФМФ Хытовой А.Н.
Дипломный проект содержит _55_ стр. пояснительного текста и _11_ страниц графической части.
В дипломном проекте разработаны следующие вопросы:
1. Собраны экспериментальные данные по вольтамперным характеристикам линейно-цепочечного углерода с различными внедренными химическими элементами.
2. Методом искусственных нейронных сетей получены вычислительные модели, позволяющие обобщать экспериментальные данные и прогнозировать свойства линейно-цепочечного углерода.
Достоинства рецензируемого проекта:
Исследованы возможности применения искусственных нейронных сетей для получения моделей, позволяющих обобщать экспериментальные данные и прогнозировать свойства линейно-цепочечного углерода.
Недостатки рецензируемого проекта:
Есть недостатки в оформлении списка литературы, величину базы данных для построения вычислительных моделей в дальнейшем следует увеличить.
Оценка:
РЕЦЕНЗЕНТ