Признаки сказки в произведении Пушкина о мертвой царевне
1. Зачин
В произведении присутствует зачин:
«Царь с царицею простился, В путь-дорогу снарядился».
2. Волшебные предметы, сверхъестественные силы
В сказке происходят различные чудеса:
волшебное зеркало
общение Елисея с солнцем, месяцем и ветром
воскрешение царевны
3. Троекратные повторы
Королевич Елисей трижды обращается к природным объектам, с просьбой о помощи: к солнцу, к месяцу и к ветру.
4. Борьба добра и зла
На протяжении всей сказки происходит борьба между добрыми и злыми образами. Добро — молодая царица, зло — царевна мачеха.
5. Положительные и отрицательные герои
В волшебных сказках обязательно присутствуют положительные и отрицательные герои. В нашем случае отрицательный герой — злая мачеха. К положительным героям можно отнести молодую царевну, ее жениха Елисея, и богатырей.
5. Победа добра
В сказках традиционно побеждает добро. И это произведение не стало исключением: царевна ожила, а злая мачеха умерла от злости.
6. Концовка
В сказке о мёртвой царевне история заканчивается свадьбой и пиршеством:
«И никто с начала мира Не видал такого пира;»
7. Присказка
Присказка следующая:
«Я там был, мед, пиво пил, Да усы лишь обмочил.»
8. Нескрываемая вымышленность сюжета
Особенностью сказки является то, что ее сюжет является чистой выдумкой и далек от реальной истории. Можно сказать, что это относится к этому произведению.
9. Преодоление потери
Часто в начале сказок происходит какая-то потеря или разлука, которая преодолевается на протяжении всего повествования.
В нашем случае потерялась царевна, и ее искал королевич Елисей.
10. Два поколения
Отличительная особенность сказок — наличие двух поколений. В этой сказке есть царь и его дочь.
План и структура итогового сочинения 2021-2022 по литературе в 11 классе
]]>
14.09.2021
Обновлено 16.09.2021
Разбираем детально план и структуру написания итогового сочинения в 11 классе по литературе. Следование этому плану поможет вам написать сочинение максимально правильно и получить все баллы за его проверку.
АКТУАЛЬНО ДЛЯ 2022 ГОДА
Коротко о композиции и структуре итогового сочинения
]]>
Общая структура итогового сочинения
I. Вступление (60-70 слов). Отразите идею будущего сочинения и основные тезисы.
II. Основная часть (включающая несколько подпунктов) — 200-250 слов.
Тeзис 1 (20-30 слов)
Дoкaзaтeльствa, пpимepы (oдин или нeскoлькo)
Микpoвывoд (oбoбщeниe нaписaннoгo)
Лoгичeский пepeхoд к нoвoй мысли
Тeзис 2
Дoкaзaтeльствa, пpимepы
Микpoвывoд
Лoгичeский пepeхoд к нoвoй мысли
III. Заключение (60-70 слов)
А теперь рассмотрим подробный план и структуру итогового сочинения
I. Вступление раскрывает основную мысль, вводит в круг рассматриваемых проблем.
Вступление состоит из 3 элементов:
объяснение ключевых слов темы или цитаты;
общие рассуждения о значимости предложенных для объяснения понятий в жизни человека;
ответ-тезис на главный вопрос темы.
Все эти элементы последовательно располагаются друг за другом.
Темы, предложенные для итогового сочинения, можно разделить на 3 типа:
тема-вопрос — задаём главный вопрос темы, на который будем отвечать в основной части. Будьте осторожны в формулировке вопроса: не уходите от темы. В этом случае можно использовать клише: «можно ли утверждать, что… », «почему можно говорить, что это высказывание справедливо», «действительно ли. .. » и т. д.,
тема-утверждение (в т.ч. цитата) — требуется обосновать уже имеющееся утверждение,
тема — назывное предложение (ключевые слова). Нужно сформулировать свое суждение о каждом из них, дать ответы на поставленные вопросы.
II. Основная часть раскрывает идею сочинения и связанные с ней вопросы, представляет систему доказательств выдвинутых положений.
Основная часть = Тезис + Аргумент(ы)
Тезис — это основная мысль сочинения, которую нужно аргументировано доказывать. Формулировка тезиса зависит от темы сочинения.
Помни!
По oбъeму oснoвнaя чaсть дoлжнa быть бoльшe, чeм вступлeниe и зaключeниe, вмeстe взятыe.
Тeзис, пoдкpeплeнный apгумeнтoм, мoжeт быть всeгo oдин.
Оптимaльнoe кoличeствo литературных аргументов – 2.
Кaждoму тeзису – свoй apгумeнт!
Связка – это переход от одной мысли к другой. Нужно плавно переходить от тезиса к аргументации.
Аргумент нужно:
привести из литературных источников.
выделить в отдельный абзац.
в конце каждого аргумента написать микровывод.
к одному тезису привести один литературный аргумент, но лучше, чтобы аргументов было два.
если тезисов несколько, то к каждому из них приводится свой аргумент!
Аргумент состоит из 3 элементов:
Обращение к литературному произведению – называем автора и произведение, его жанр (если знаем; если не знаем, то так и пишем — произведение», чтобы избежать фактических ошибок).
Его интерпретацию – здесь мы обращаемся к сюжету произведения или конкретному эпизоду, характеризуем героя(-ев). Желательно несколько раз упомянуть автора, используя речевые клише типа «автор повествует», «автор описывает», «писатель рассуждает», «поэт показывает», «автор считает» и т. п. Почему нельзя просто написать: «герой пошёл туда-то, сделал то-то» ? А потому что это будет уже не анализ, а простой пересказ.
Микровывод (он завершает только одну из микротем, а не всё сочинение в целом; нужен для логичности и связности текста): в этой части мы, как правило, формулируем основную мысль всего упомянутого произведения или авторскую позицию по конкретной проблеме. Используем клише типа «писатель приходит к выводу… » и т. п.
III. Заключение подводит итоги, содержит конечные выводы и оценки.
4 способа закончить сочинение:
Вывод. Принято завершать сочинение выводом из всего вышесказанного, но нельзя повторять те микровыводы, которые уже делались в сочинении после аргументов.
Заключение-призыв. Не используй пафосные лозунги «Берегите нашу Землю!» . Лучше не использовать глаголы 2 -го лица: «берегите», «уважайте», «помните» . Ограничьтесь формами «нужно», «важно», «давайте» и т. д. .
Заключение — выражение надежды, позволяет избежать дублирования мысли, этических и логических ошибок. Выражать надежду нужно на что-нибудь позитивное.
Цитата, подходящая по смыслу и высказана уместно. Рекомендуем заранее подготовить цитаты по всем тематическим направлениям, чтобы соответствовало главной мысли сочинения.
Помни: смысл цитаты обязательно должен соответствовать главной мысли сочинения.
Что вас ждёт в документе ниже:
какое должно быть вступление,
из чего состоит основная часть сочинения,
как сформулировать тезисы и аргументы,
как правильно сделать связку между абзацами,
как правильно написать заключение в итоговом сочинении,
как добиться уникальности сочинения.
Обращаем ваше внимание, что у ВУЗов (при поступлении) очень часто используются собственные критерии проверки, имейте это в виду (и они существенно отличаются от проверки школьного уровня).
Смотреть в PDF:
Или прямо сейчас: cкачать в pdf файле.
Представленная здесь структура сочинения актуальная для любого года и не зависит от темы и направления итогового сочинения. Поэтому вы можете смело использовать этот материал при подготовке в любом году.
Структуру сочинения условно можно разделить на два вида:
Композиционная.
Логическая.
Рассмотрим подробнее каждую из них.
Композиционная структура
Вступление
Основная часть
Заключение
Логическая структура
Зачин. Подготовка к восприятию основных мыслей работы
Комментарии без регистрации. Несодержательные сообщения удаляются.
Краткий словарь терминов. Литература 5 класс. Учебник-хрестоматия для школ с углубленным изучением литературы. Часть 1
Краткий словарь терминов
Аллего?рия – один из художественных приемов, иносказание, изображение какой-нибудь отвлеченной идеи в конкретном, отчетливо представляемом образе.
Анималисти?ческое произведе?ние – литературное произведение, в котором правдиво показаны повадки и характерные черты каких-либо животных и где нередко животные оказываются главными героями.
Анони?мное произведе?ние – литературное произведение, чье авторство по каким-либо причинам не установлено.
Балла?да (литерату?рная) – лиро-эпический жанр, в котором на основе сюжетного повествования об исторических событиях, личных драмах или фантастических явлениях дается лирическая эмоциональная оценка персонажей. Как правило, включает в себя пейзажный зачин, пейзажную концовку и строится на введении открытого (явного) или скрытого (монолог, обращенный к молчащему собеседнику, введение обращений) диалога, подразделяется на исторические, семейные, фантастические (страшные) и пр.
Балла?да (фолькло?рная)
– лиро-эпический жанр народной поэзии, имеет сюжет и, как правило, диалог, пейзажный зачин и пейзажную концовку; в народной поэзии существовали баллады: «страшные», исторические, семейно-бытовые, любовные, трагические, разбойничьи.
Ба?сня – эпический жанр, в котором художественный мир, где живут и действуют животные и предметы, создан с помощью художественного приема аллегории, носящего нравоучительный и воспитательный характер. Басня может быть стихотворной и прозаической.
Были?на – жанр русского фольклора, эпическая песнь героического содержания, повествующая о подвигах русских богатырей и отражающая жизнь средневековой Руси.
Герои?ческое – изображение действий персонажа, требующих предельного напряжения его сил и готовности к самопожертвованию во имя поставленной цели.
Дета?ль (худо?жественная) – описание какого-то предмета или явления внешнего мира, части портрета или пейзажа с целью эмоциональной оценки не только описываемой части, но и всего целого, к которому она (часть) относится.
Де?тский фолькло?р – произведения устного народного творчества, созданные детьми или для детей (например, считалки).
Диало?г – способ повествования в литературном произведении, когда приводится прямая речь персонажей, обменивающихся репликами, содержащими оценку и сущность того, о чем повествуется.
Дра?ма – один из литературных родов, художественный мир которого предполагает сценическое воплощение в виде спектакля.
Драматурги?я – обобщенное наименование всех литературных произведений, предназначенных для сценического воплощения в театре.
Ду?ма – жанр лиро-эпической поэзии, близкий к балладе.
Жанр – сходные черты создания художественного мира в ряде произведений, определяемые особенностями художественной условности данных произведений.
Жизнеподо?бие – один из видов художественной условности, смысл которого состоит в придании характерам и обстоятельствам произведения сходства с характерами и обстоятельствами реальной действительности.
Зага?дка – фольклорный жанр, в котором предлагается поэтический вопрос для нахождения правильного ответа по содержащейся в самом вопросе информации.
За?говор – фольклорный жанр, имеющий магическое значение и призванный с помощью определенных сочетаний слов оказать определенное воздействие на материальный мир (унять боль, уберечь от порчи и т. д.).
Заклина?ние – фольклорный жанр, магическая формула, призванная воздействовать на природу или человека; обычно сопровождается ритуальными (магическими) действиями.
Закли?чки – жанр детского фольклора, наивное поэтическое обращение к силам природы.
Идеа?л – в литературе авторское представление о том, каким должен быть человек и мир, его окружающий, определяющее отношение и оценка автором изображаемых событий и персонажей, не следует путать понятия «идеал» и «идеальный герой» как персонаж, лишь приближающийся к воплощению идеала.
Иро?ния – скрытая насмешка.
Истори?ческие пе?сни – фольклорный жанр, близкий народной балладе, в котором содержится лирическое описание и оценка какого-либо исторического события или исторической личности.
Конфли?ктная ситуа?ция – создание с помощью художественных средств такого положения в художественном мире произведения, которое требует от персонажей активных действий, ставит их перед необходимостью вступить в борьбу с противостоящими силами.
Леге?нда – фольклорный и литературный жанр, в котором представлено мифологизированное повествование о реальном важном историческом событии или о деяниях исторической личности; характерной чертой жанра является идеализация событий и героев.
Ли?рика – один из литературных родов, в котором художественный мир произведения отражает внутренние переживания лирического героя, эмоциональное восприятие действительности.
Ли?ро-э?пика – один из литературных родов, художественный мир произведений которого читатель наблюдает и оценивает со стороны (эпическое начало), но одновременно события и персонажи получают эмоциональную оценку повествователя (лирическое начало).
Литерату?ра – один из видов искусства и форма общественного сознания; словесными средствами создавая художественную реальность, она выполняет эстетическую, познавательную и воспитательную функции, вовлекая читателя в зону мощного эмоционального воздействия и заставляя его принять точку зрения автора.
Ма?гия – совокупность действий, обрядов, ритуалов и словесных формул, воздействующих на материальный мир с целью его изменения, а также установления связей между реальным и ирреальным мирами.
Мистифика?ция – художественный прием, заключающийся в том, что автор приписывает свое произведение другому, известному или вымышленному автору; часто сочетается со стилизацией.
Миф – объяснение сложных явлений природы, происхождения мира и человека с помощью художественной фантазии, восполняющей недостаточность научных знаний.
Моноло?г – развернутое высказывание одного персонажа или повествователя.
Нове?лла – литературный эпический жанр, в основе которого лежит художественное описание одного завершенного события и его авторская оценка.
Обря?довая пе?сня – жанр фольклора, песня, являющаяся частью магического ритуала и призванная способствовать магическому обряду (свадебные песни, похоронные песни, плачи и т. п.).
О?черк (литерату?рный) – эпический жанр, художественное повествование о реальных людях или событиях.
Пейза?ж – описание природы в литературном произведении; может использоваться для мотивировки действий персонажей, передавать их душевное состояние и создавать эмоциональный настрой произведений (эпизода).
Персона?ж – обобщенное обозначение любого действующего лица литературного произведения.
Плач – фольклорный жанр, художественное воплощение скорби по утраченному, может быть в стихотворной или прозаической форме, сохраняет в себе элементы магического действия.
Повествова?тель – условный образ, от лица которого ведется рассказ в произведении.
Посло?вица – краткое, ритмически организованное изречение, содержащее суждение из области философии, морали и т. д.
Поэ?тика – 1) система художественных средств и приемов, используемых писателем для создания художественного мира отдельного произведения и в его творчестве в целом; 2) учение о принципах и законах создания литературного произведения («Поэтика» Аристотеля, «поэтика классицизма» и т. д.).
Причита?ния – фольклорный жанр, формулы выражения скорби при каких-либо печальных событиях (расставании, похоронах и т. п.).
Про?за – немелодический (без явно выраженной напевности) способ художественного повествования в литературе.
Пье?са – термин, обозначающий любое драматическое произведение (предназначенное для постановки на сцене театра) без указания на жанр, к которому это произведение относится.
Расска?з – термин, синонимичный термину «новелла». При использовании обоих терминов под новеллой подразумевается короткий рассказ с динамичным сюжетом и неожиданной концовкой.
Ритм – в фольклорном и литературном произведениях один из отличительных признаков поэтической речи: подчиненная художественным задачам расстановка логических ударений (акцентов) и смена интонаций повествования; различаются мелодический ритм (стихи) и немелодический (проза).
Ро?ды литерату?ры – четыре основные группы, на которые подразделяются все произведения словесного творчества по принципам восприятия читателем (слушателем) художественного мира произведения (см. эпос, лирика, драма, лиро-эпика).
Сказ – эпический жанр, опирающийся на народные предания и легенды, а также название особого повествования, имитирующего разговорную речь.
Ска?зка (литерату?рная) – эпический жанр, формирующий на основе фантастической условности мифологический художественный мир для создания необычных ситуаций, в которых вынужден действовать герой. Подразделяются на философские, дидактические (воспитательные) и сатирические.
Ска?зка (фолькло?рная) – фольклорный жанр, стремящийся на основе фантастической условности дать наиболее полное, обобщенное изображение мира, в котором живет человек.
Спектакль – воплощение на сцене театра в драматической игре актеров художественного содержания пьесы.
Стилиза?ция – литературный прием, состоящий в том, что автор, создавая свое произведение, подражает стилю и художественным средствам какого-либо другого известного произведения или автора.
Сцена?рий – переработка литературного произведения с целью его сценического воплощения.
Те?ма – основной предмет повествования, то главное, о чем сообщается в произведении.
Трудовы?е пе?сни – фольклорный жанр; песни, сопровождающие трудовой процесс и своим ритмом и эмоциональными установками способствующие его облегчению.
У?стное наро?дное поэти?ческое тво?рчество – совокупность произведений, созданных анонимными сказителями и бытующих в народной среде в устной передаче, во время которой происходит дальнейшая обработка и варьирование первоначального материала.
Фанта?стика – один из видов художественной условности: построение художественного произведения или его части на основе вымысла.
Фолькло?р – то же самое, что и устное народное поэтическое творчество, этот термин также применяется и к другим видам искусства.
Худо?жественная усло?вность – отличительная черта любого искусства, противопоставляющая реально существующему миру мир, созданный воображением художника: может быть явной (фантастика) и скрытой, имитирующей реальную действительность (жизнеподобие).
Худо?жественный вы?мысел – описание, возникающее в результате творчества и создающее на основе одного (или нескольких) видов условности художественный мир произведения.
Худо?жественный мир – вымышленная реальность, существующая в пределах конкретного художественного произведения по законам, заданным творческой фантазией автора.
Худо?жественные сре?дства – использование возможностей языка для создания художественных образов, построения художественного мира произведения и эмоционального воздействия на читателя.
Худо?жественный о?браз – образ, возникающий в сознании читателя (слушателя) фольклорного или литературного произведения в результате эмоционального отклика на эстетические чувства автора, запечатленные в произведении художественными средствами.
Часту?шки – жанр русского фольклора, содержательно законченная стихотворная строфа юмористического или сатирического содержания: часто создаются на основе импровизации.
Э?пос – один из литературных родов, в котором читатель воспринимает художественное произведение как бы со стороны, имея возможность составлять собственное суждение об описываемых событиях и персонажах.
Ю?мор – веселая добродушная насмешка над кем-либо или чем-либо.
Данный текст является ознакомительным фрагментом.
Продолжение на ЛитРес
Что такое особый сказочный зачин. Значение слова зачин в словаре литературоведческих терминов
Что такое зачин в сказке знают, пожалуй, единицы, а ведь этот раздел зачастую является одним из наиболее важных факторов в построении всей истории сказочного повествования. Зачином сказки является ее начало, которое рассказывает о прошлой жизни главных героев, а также о происходящей в мире истории, затрагивающей героев сказки.
Зачину свойственно описывать и образы городов, предметов и других вещей, которые начинают историю. Именно в этой части рассказа, автор доносит одну из главных идей в сказке и пытается заинтересовать читателя, предысторией своего сказочного мира, заложив образы для последующего повествования. Дает данная часть и представление о мире, воплощая текст в голове читателя, заставив почувствовать себя в волшебном мире. Зачастую в русских сказках, зачин начинается с фразы «Жили-были…».
В общем, можно с точностью сказать, что зачин является важной частью сказки, сопоставив с концом. Ведь обе этих части несут в себе моральные ценности и показывают сформировавшиеся характеры главных героев. Еще можно отметить, тот факт, что большинство зачинов народных сказок, отличаются свои разнообразием и структурой, не показывая однотипности из сказки в сказку, а делая ее уникальной и интересной.
С раннего детства сказки радуют человека своими удивительными историями, о непобедимых рыцарях и благородных принцессах, готовых идти на любые риски, чтобы найти свое счастье и исполнить собственные мечты. Они приносят людям добрые чувства и надежду в их сердца, а детям помогают сформировать мнение об окружающем их мире. Сами же сказки появились в глубокой древности и несли в себе свод законов о природе, а также поучение для людей.
Русские сказки же появились из перехода рассказов в поколение из поколения, таким образом, данные истории несли в себе поучительный характер, давая людям ценные советы. Никто не знает, где же возникла первая сказка, ведь данные истории упоминаются еще в письменах древних государств. Наши народные сказки делятся на три типа: о животных, волшебные и бытовые. Распространенными сказками считают рассказы о животных, а самыми занимательными люди всегда считали сказки связанные с волшебством. Во всех историях сказок, главным образом выделяется основа борьбы добра со злом и их извечное противостояние. Герои сказок, как добрые, так и злые, являются лишь символами добра и зла, вынужденные бороться из-за разногласий или же поступков друг друга. В некоторых сказках обычно трудно различить злого персонажа от доброго, такие рассказы зачастую написаны писателями, которые пытались внести что-то свое в данную историю. В народных сказках же всегда есть выделенный главный злодей, который противодействует добрым персонажам.
Война Алой и Белой розы краткое содержание Войны роз
Династией Ланкастеров в Англии правила француженка – Маргарита, это вызвало недовольство династии Йорков.
Бароны северной Англии и Ирландии приняли сторону Ланкастеров. Тогда как Йоркам помогали феодалы, купцы и горожане.
Какие животные делают запасы на зиму?
Запасаются на зиму несколько животных такие как белки, норки, кроты, медведи, бурундуки, и другие грызуны, насекомые и даже птицы
С ними люди знакомятся с самого детства. Основная функция сказок – воспитательная, ведь они учат добру, бескорыстности, альтруизму.
История русского фольклора насчитывает большое количество сказок. Многие из них существуют в нескольких вариантах.
Сказка и ее жанровые разновидности
Сказки могут быть разными. Основная классификация делит их следующим образом:
1. Сказка о животных. Главными персонажами и действующими лицами являются животные. В русской литературе каждое животное является аллегорией какого-либо Например, лиса олицетворяет хитрость, заяц – трусливость и т. д.
2. Волшебная сказка. Имеет достаточно сложную композицию. Началом такой сказки, как правило, является зачин. В сказке это непременное условие, которое выражает мораль, основную мысль и идею.
3. Новеллистическая сказка. Героем является человек, который совершает удивительные вещи. Только если в волшебных помогают волшебные предметы или необычные животные, то в новеллистических персонаж пользуется только своим умом.
4.Бытовая сказка. Она рассказывает о жизни человека в обычном мире без волшебства.
Каждая сказка начинается по-своему. Большого внимания заслуживают зачины русских сказок, однако, прежде чем их рассматривать, необходимо познакомиться со структурными элементами традиционной сказки.
Структура сказки
Сказка начинается с зачина. После него начинаются основные события. Герой попадает в необыкновенную ситуацию. Затем в сказке происходят перипетии – действия. Герои пересекаются друг с другом. Наступает самый ответственный момент – кульминация. После кульминации идет спад событий, а впоследствии – развязка.
Такова структура обыкновенной истории.
Немного о зачине
Зачин в сказке – это начало сказки. Он может быть коротким (состоять из одного предложения), а может быть длиной в целый абзац. Зачин вводит читателя в сказочную историю. Он дает первоначальные сведения о персонажах, например “жил да был крестьянин”.
Зачин в сказке – это небольшое отступление, которое задает тон повествования. Основные цели зачина:
1. Привлечь внимание слушателей. Зачины русских народных сказок могут представлять собой пословицу или поговорку. Читателю или слушателю становится интересно, как данная сказка связана с указанным в зачине предложением.
2. Задать тон повествованию. Зачин нередко определяет жанр произведения. Подобным приемом пользовались и русские классики, например, Салтыков-Щедрин сказку “Премудрый пескарь” начинает со слов: “Жил-был пескарь”.
Таким образом, зачин – это основная структурная единица сказки, которая настраивает читателя на прочтение произведения и определяет жанровое своеобразие.
Зачины в русских сказках
Сложно найти человека, который не смог бы вспомнить хотя бы один зачин. В сказке это основная часть, поэтому без него трудно обойтись.
Большинство сказок начинаются со слов “жили-были…”, “жил-был…”. Особенностями такого зачина является неоднократный повтор однокоренных слов.
Не менее известны и зачины русских народных сказок, начинающиеся со слов “в некотором царстве, в некотором государстве…”. Похожий зачин – “в тридевятом царстве, в тридесятом государстве. ..”. Такие вступления свойственны волшебным сказкам.
Иногда сказки открываются поговорками со словом “зачин”, например “зачин дело красит” или “каждое дело имеет начало, каждый сказ – зачин”. После такого вступления непосредственно начинается сама история.
Таким образом, мы можем сделать следующий вывод: зачин – это особенное начало сказки, свойственное произведениям русского фольклора. Он может выступать либо как сказки, либо нести в себе определенную смысловую нагрузку.
Тема: Композиционные части сказки: присказка, зачин, концовка.
Цель: Систематизация знаний по теории литературы (композиционные производные)
Задачи для учащихся:
1.Знать композиционные части сказки.
2.Научиться находить их в тексте.
3.Составлять сказку по композиционным частям.
Предполагаемые результаты:
1.Знают, из каких композиционных частей состоит сказка и их определение.
2.Умеют находить композиционные части в тексте.
3.Составляют свою сказку, используя все её композиционные части.
Ход урока.
I . Мотивационный этап.
1.Психологический настрой на урок.
Показ мультфильма «Командное взаимодействие» на интерактивной доске.
Вопросы после просмотра:
2.Формирование групп.
Учитель назначает командиров групп:
Выберите каждый для себя одного ученика – спикера, спикер выберет секретаря, секретарь – таймспикера.
Покажите смайликом, как вы себя чувствуете в данной группе.
Повторение правил работы в группах.
4.Целеполагание.
Учитель.
Прочитайте текст на карточках и выполните пометки. (Метод «Инсерт»)
Учащиеся читают текст карточки и делают пометки:
«!» – знаю, согласен;
«-»-не согласен;
«+»-интересно и неожиданно;
«?»- не знаю, хочу узнать.
После заполнения таблицы задаётся вопрос классу:
Что заинтересовало вас при работе с таблицей? (Отвечают и останавливаются на пометке «не знаю, хочу узнать»
Я хочу вам помочь в получении новых знаний. Определите тему сегодняшнего урока.
Что такое присказка, зачин, концовка в сказке.
С какой целью вы хотите это узнать?
Чтобы находить присказку, зачин, концовку в сказках. Чтобы самим правильно сочинить интересную красивую сказку.
Запишем тему урока в тетрадь.
II . Операционный этап.
1.Определение композиционных частей. Работа в парах. Метод «Прогнозирование».
Учитель: У каждой пары есть карточка. Рассмотрите и попробуйте определить с помощью стрелок присказку, зачин, концовку. (Используются карточки двух вариантов)
1 вариант
Имя_________
1)Ой ду-ду! На дубу
Грянул ворон во трубу.
И пошли чудеса:
Засинели небеса,
Вышли в море паруса,
Встали тёмные леса.
2) Жили себе дед да баба. Дед и говорит бабе:
Ты, баба, пеки пироги, а я запрягу сани, поеду за рыбой….
3) Вот и стали они жить –поживать да добра наживать.
КОНЦОВКА
ПРИСКАЗКА
ЗАЧИН
2 вариант.
Имя_ ________
1) А в лесной избушке
Затопилась печь –
Пироги с морошкой
Начал зайка печь.
Пирогов покушай,
Сказочку послушай.
2) В старые годы у одного царя было три сына. Вот, когда сыновья стали на возрасте, царь собрал их и говорит:
Сыновья мои любезные, покуда я ещё не стар, мне охота бы вас женить, посмотреть на ваших деточек, на моих внучат…
3) И я там был. Мёд-пиво пил, по усам текло, а в рот не попало.
КОНЦОВКА
ПРИСКАЗКА
ЗАЧИН
2.Проверка. Взаимопроверка пар по ключу в учебнике (стр.39-40. Литературное чтение, 2 класс)
Кто определил правильно? У кого не получилось, не расстраивайтесь, сейчас вы прочитаете точное определение понятий и сможете правильно находить в сказках присказку, зачин и концовку. (Самостоятельное чтение правил в учебнике Стр.39-40. Работа в группах)
Чем сказка отличается от рассказа?
В рассказе нет присказки, зачина и концовки.
По каким признакам мы отличаем сказку?
Слова «жили-были», «однажды». Положительные и отрицательные герои. Добро и зло. Добро побеждает.
3.Определение последовательности композиционных частей сказки. (Работа в группах)
Расположите карточки с названиями композиционных частей в том порядке, в котором, вы считаете, располагаются композиционные части в сказке.
Карточки:
Присказка
зачин
концовка
4.Проверка методом «Делегирование». Делегаты от групп заходят в другие группы и смотрят выполненную работу. Свои мысли, оценку и предложения оставляют на стикере. В каждой группе остаётся спикер, который представляет работу своей группы.
Присказка
зачин
концовка
5. Физминутка «Весёлая зарядка» на интерактивной доске.
6.Закрепление изученного материала.
Карточки с разноуровневыми заданиями. (Обосновать свой выбор)
1 уровень.
Задание: Прочитайте сказку и разделите её на композиционные части.
Будет сказка занимательна. Слушайте её внимательно. Кто уши широко раскроет – много всякой всячины усвоит. А кто невзначай уснёт – тот ни с чем и уйдёт.
Как-то по весне жила на крыше одного дома сосулька, которая очень хотела иметь косынку.
И вот однажды утром мимо пробегала маленькая девочка. Малышка очень спешила в детский сад и не заметила, как косынка с ее плеч упала прямо на асфальт. Сосулька по молодости и неопытности подумала, что косынка оставлена в подарок для нее. Все утро она думала, как же добраться до косынки. Наступил день, солнышко засветило ярко и сильно. Сосулька, увлеченная своими мыслями, потихоньку таяла и по капельке капала вниз, прямо на косынку… Она и не заметила, как растаяла вся… Влажная от воды косынка к вечеру высохла под солнечными лучами. А вечером девочка, возвращаясь домой из садика, нашла ее на том самом месте, где оставила утром. Вот и сказочке конец, а кто слушал молодец!
2 уровень.
Карточки с разрезанным текстом.
Задание: Прочитайте сказку, собрав правильно её части.
В то давнее время, когда мир божий наполнен был лешими, ведьмами да русалками, когда реки текли молочные, берега были кисельные, а по полям летали жареные куропатки, в то время жил-был царь по имени Горох…
В старые-стародавние времена царь Горох воевал с грибами.
Гриб боровик, над грибами полковник, под дубочком сидючи, на все грибы глядючи, стал приказывать: – Приходите вы, белянки, ко мне на войну! Отказалися белянки: – Мы – столбовые дворянки! Не пойдем на войну! – Приходите вы, рыжики, ко мне на войну! Отказались рыжики: – Мы – богаты мужики! Не пойдем на войну! – Приходите вы, волнушки, ко мне на войну! Отказалися волнушки. – Мы, волнушки, – старушки! Не пойдем на войну! – Приходите вы, опенки, ко мне на войну! Отказалися опенки: – У нас ноги очень тонки! Не пойдем на войну! – Приходите, грузди, ко мне на войну! – Мы, грузди, – ребятушки дружны! Пойдем на войну!
Так и победили грибы царя Гороха!
И я там был. За победу мёд-пиво пил. По усам текло, а в рот не попало.
3 уровень (талантливые и одарённые)
Задание: Устно составьте сказку, используя все композиционные части.
7.Представление выполненной работы спикерами групп.
III .Рефлексия.
1.Проверка усвоения темы.
Перед вами тест. Вспомните то, о чём вы сегодня узнали и ответьте на вопросы.
Мини-тест.
1.Присказка
а) идея сказки, её герои
б) заманилка к слушанию
в) добро побеждает зло.
2.Зачин
а) идея сказки, её герои
б) заманилка к слушанию
в) добро побеждает зло.
3.Концовка
а) идея сказки, её герои
б) заманилка к слушанию
в) добро побеждает зло.
2.Проверка.
Посмотрите на доску и проверьте свою работу (ключ на интерактивной доске)
Поставьте оценку в свой тест.
Если:
все ответы верны – смайлик «улыбается»
один, два ответа не верны – смайлик «грустный»
3.Итог урока – приём «Незаконченные предложения»
По кругу высказываются одним предложением, выбирая начало фразы из рефлексивного экрана на доске.
Сегодня я узнал…..
Было интересно…..
Было трудно….
Я выполнял задания…..
Я понял, что….. Теперь я могу….
Я почувствовал, что….
Я приобрёл….
Я научился….
У меня получилось…
4.Домашнее задание.
Повторить правило на странице 39-40.
Сочинить присказку, зачин или концовку – по желанию на выбор.
Кто-нибудь обязательно еще вспомнит: «В некотором царстве, в некотором государстве…» или «В тридесятом царстве, в тридесятом государстве…» – и тоже будет прав.
Некоторые сказки начинаются с обычного слова «однажды». А в иных, как, например, в сказке «Три царства – медное, серебряное и золотое» время описывается как будто конкретнее, но все же очень расплывчато, по-сказочному: «В то давнее время, когда мир божий наполнен был лешими, ведьмами да русалками, когда реки текли молочные, берега были кисельные, а по полям летали жареные куропатки…»
Русские народные бытовые сказки, больше похожие на анекдоты, обходятся без традиционных зачинов. Например, «У одного мужика была жена сварливая…» или «В одном селе жили два брата».
Подобные зачины можно встретить не только в русских народных сказках , но и в сказках других народов.
О чем же говорят все эти присказки? Все очень просто. Слушатель или читатель сразу вводится в действие, узнает, с кем, где и в какое время будут происходить сказочные события. И ждет продолжения. Важно и то, что эти фразы ритмично построены таким образом, чтобы создать определенную напевность.
Зачины авторских сказок
У А.С. Пушкина в «Сказке о золотом петушке» собраны воедино сразу два сказочных зачина: «Негде, в тридевятом царстве, В тридесятом государстве, Жил-был славный царь Дадон».
Многие сказки начинаются отнюдь не с традиционных фраз. Например, первая строчка в сказке Андерсена «Огниво» такая: «Шел солдат по дороге: раз-два! раз-два!»
Или вот для примера зачины сказочных повестей Астрид Линдгрен: «В городе Стокгольме, на самой обыкновенной улице, в самом обыкновенном доме живёт самая обыкновенная шведская семья по фамилии Свантесон». («Малыш и Карлсон») «В ту ночь, когда Рони должна была появиться на свет, грохотал гром». («Рони – дочь разбойника»)
Начало, начин, почин; введение, вступление, запев, присказка, приступ. Ant. конец, окончание Словарь русских синонимов. зачин см. начало Словарь синонимов русского языка. Практический справочник. М.: Русский язык. З. Е. Александрова … Словарь синонимов
Вступление к былине при помощи какой либо традиционной формулы, отчасти связанной с повествованием (в отличие от прибаутки или запева, этой связи не имеющих) хронологически, географически и т. п., напр.: «Как во славном во городе во Киеве, У… … Литературная энциклопедия
ЗАЧИН, а, муж. 1. То же, что почин (во 2 знач.) (прост.). 2. В народной словесности: традиционное начало. Былинный з. З. сказки. | прил. зачинный, ая, ое. Толковый словарь Ожегова. С.И. Ожегов, Н.Ю. Шведова. 1949 1992 … Толковый словарь Ожегова
зачин – устойчивая формула, с которой начинаются фольклорные произведения. В сказке зачину может предшествовать присказка, в былине запев. Рубрика: Композиция и сюжет Целое: композиция Прочие ассоциативные связи: жанры фольклора … Терминологический словарь-тезаурус по литературоведению
А; м. 1. Устар. Начало, почин. * Зачин дело красит (Посл.). 2. Лит. Традиционное начало, характерное для произведений фольклора (былины, песни, сказки) … Энциклопедический словарь
зачин – а; м. 1) устар. Начало, почин. * Зачин дело красит (посл.) 2) лит. Традиционное начало, характерное для произведений фольклора (былины, песни, сказки) … Словарь многих выражений
зачин – 1 іменник чоловічого роду вступ; початок зачин 2 іменник чоловічого роду у зачині під замком … Орфографічний словник української мови
зачин – ЗАЧИН, а, м Часть литературного произведения (обычно былины, песни, сказки), характеризующаяся особым складом, приемом, часто определенная фраза, начинающая повествование. Все русские сказки имеют общий зачин … Толковый словарь русских существительных
М. 1. Традиционное начало сказки, былины, песни. 2. разг. Начало, почин. Толковый словарь Ефремовой. Т. Ф. Ефремова. 2000 … Современный толковый словарь русского языка Ефремовой
Зачин, зачины, зачина, зачинов, зачину, зачинам, зачин, зачины, зачином, зачинами, зачине, зачинах (Источник: «Полная акцентуированная парадигма по А. А. Зализняку») … Формы слов
Книги
Большой зачин , Коптелов А.. Роман А. Л. Коптелова посвящен жизни и революционной деятельности молодого Ильича. Действие романа охватывает период, когда Владимир Ульянов приехал в Питер с берегов родной Волги, стал…
Большой зачин , Афанасий Коптелов. В романе Афанасия Коптелова “Большой зачин” читатель встречается в В. И. Лениным и его соратниками…
ЗАЧИН – это… Что такое ЗАЧИН?
зачин — начало, начин, почин; введение, вступление, запев, присказка, приступ. Ant. конец, окончание Словарь русских синонимов. зачин см. начало Словарь синонимов русского языка. Практический справочник. М.: Русский язык. З. Е. Александрова … Словарь синонимов
Зачин — вступление к былине при помощи какой либо традиционной формулы, отчасти связанной с повествованием (в отличие от прибаутки или запева, этой связи не имеющих) хронологически, географически и т. п., напр.: «Как во славном во городе во Киеве, У… … Литературная энциклопедия
ЗАЧИН — ЗАЧИН, а, муж. 1. То же, что почин (во 2 знач.) (прост.). 2. В народной словесности: традиционное начало. Былинный з. З. сказки. | прил. зачинный, ая, ое. Толковый словарь Ожегова. С.И. Ожегов, Н.Ю. Шведова. 1949 1992 … Толковый словарь Ожегова
зачин — устойчивая формула, с которой начинаются фольклорные произведения. В сказке зачину может предшествовать присказка, в былине запев. Рубрика: Композиция и сюжет Целое: композиция Прочие ассоциативные связи: жанры фольклора … Терминологический словарь-тезаурус по литературоведению
зачин — а; м. 1. Устар. Начало, почин. * Зачин дело красит (Посл.). 2. Лит. Традиционное начало, характерное для произведений фольклора (былины, песни, сказки) … Энциклопедический словарь
зачин — а; м. 1) устар. Начало, почин. * Зачин дело красит (посл.) 2) лит. Традиционное начало, характерное для произведений фольклора (былины, песни, сказки) … Словарь многих выражений
зачин — 1 іменник чоловічого роду вступ; початок зачин 2 іменник чоловічого роду у зачині під замком … Орфографічний словник української мови
зачин — ЗАЧИН, а, м Часть литературного произведения (обычно былины, песни, сказки), характеризующаяся особым складом, приемом, часто определенная фраза, начинающая повествование. Все русские сказки имеют общий зачин … Толковый словарь русских существительных
Зачин — м. 1. Традиционное начало сказки, былины, песни. 2. разг. Начало, почин. Толковый словарь Ефремовой. Т. Ф. Ефремова. 2000 … Современный толковый словарь русского языка Ефремовой
зачин — зачин, зачины, зачина, зачинов, зачину, зачинам, зачин, зачины, зачином, зачинами, зачине, зачинах (Источник: «Полная акцентуированная парадигма по А. А. Зализняку») … Формы слов
Зачины и концовки как основные структурные элементы сказок. С каких слов начинаются сказки Стихотворные части сказок
Русские народные сказки – основополагающий элемент народного творчества наших предков. В этих повествованиях мы сталкиваемся с незабываемыми приключениями героев, с описаниями их повседневной жизни, в том числе быта и работы, с фантастическими существами и с мистическими явлениями. Детские – это наши первые встречи с добром и злом, с радостью и грустью, со смехом и задором и даже со страхом. Мы знакомы с самого детства с их героями и любовь к ним не проходит на протяжении всей нашей жизни, уже во взрослой жизни продолжая умилять и удивлять. Не раз мы сталкиваемся с тем, что прочитав ребенку русскую народную сказку, мы и для себя всегда находим там что-то новое и поучительное. Во все времена сказки вдохновляли творческих людей на постановки детских спектаклей, написание картин, создание истинных шедевров кинематографии.
Композиция сказки:
Обычно русские народные сказки для детей имеют четкую композицию. Стандартная композиция сказки включает в себя зачин, то есть то, какое начало у сказки. Это может быть и “В некотором царстве, в некотором государстве…” и “Жили-были…” и другие варианты, которые уже с первых слов настраивают нас на сказочный лад. Далее идет основная часть сказки, в которой происходят все события сказочного сюжета, ну и заканчивается сказка обычно тоже по-особенному. Вариантов окончания сказки огромное множество, самые знакомые из них – это:
Стали они жить – поживать и добра наживать
И я там был, мед пиво пил…
Устроили они пир на весь мир…
Особенности русских народных сказок:
Вспомните только фразы, которые мы даже потом сами невольно используем в своей жизни: идти куда глаза глядят; скоро сказка сказывается, да не скоро дело делается… А какую поэтичность сказкам придает простое перемещение прилагательного после сказуемого, как песня тогда читается сказка, на одном дыхании: солнышко красное, красавица писаная…
Особенности русских народных сказок, конечно же, также в их написании, в сокращении слов. Мы ведь начиная читать сказку, сразу понимаем, что эта сказка русская. По одним только словам. Что невесел, буйну голову повесил?
А детские с их ласковыми именами? Это и петушок и солнышко и братец и сестричка и многие другие. За счет такого написания, эти сказки так любимы нашими малышами, когда мама их читает, такие ласковые и добрые.
Вот говорят, что сейчас век высоких технологий и новых прогрессивных средств массовой информации, но можете ли вы представить себе, что не прочитаете ни одной сказки своему ребенку? Это кажется невозможным, даже немножечко глупым и смешным. Сказки настолько давно и настолько прочно вошли в нашу жизнь, что нам остается радоваться их огромному количеству и выбирать свои любимые для чтения их детям.
Сценарий развлечения по сказкам для старших дошкольников и младших школьников
Досуг для детей 5-9 лет: «В мире сказок».
Дворецкая Татьяна Николаевна ГБОУ СОШ №1499 СП №2 дошкольное отделение Воспитатель Описание: Досуг познакомит детей старшего дошкольного и младшего школьного возраста с разными видами сказок.
Назначение работы: Досуг предназначен для детей старшего дошкольного и младшего школьного возраста, воспитателей дошкольных учреждений и родителей. Цель: формирование представлений у детей о разнообразных видах сказок. Задачи: 1. Развивать у детей дошкольного возраста интерес к чтению 2. Приучать внимательно, слушать литературные произведения 3. Поддерживать эмоциональную заинтересованность к прочитанному произведению 4. Расширить представления детей о разных видах сказочного жанра
Вступительная часть в стихах.
Сказка устный пересказ Вымысел сюжета. Волшебство и чудеса Обойдут полсвета.
И герои и злодеи В сказке слушателей ждут. Незаметно малых деток Воспитают, развлекут.
Ценность сказки велика! Кладовая знаний! Нарушителям запрета Будут испытания.
Кто с достоинством пройдет Трудности и горести, Награждения в конце За дела по совести!
Сказка – наш бесценный дар! Мудростью богата. И с волнением ее Слушают ребята.
Справедливость торжествует Зло наказано добром. Радость дарит она людям
Входит в каждый дом!
Сказка древняя затея Но дошла до наших дней. В ней заложена идея. И послания для людей!
Досуг: В мире сказок.
Ведущая: Большое значение в жизни детей имеет сказка. Сказки к нам пришли из глубины веков. Сказки слагал народ, запоминал и рассказывал друг другу. Ходили сказки по миру от одних слушателей к другим. Каждый рассказчик добавлял в сюжет сказки небольшие изменения и дополнения. Потом сказки стали собирать и записывать. Так сказки дошли до наших дней. Сюжеты сказок такие разные: веселые и грустные, страшные и смешные. Из сказок мы узнаем о культурных традициях, о народном жизненном укладе, о характерах людей живших много лет тому назад. Сказки знакомы и любимы всем людям с детства. Что же такое сказка? Народная сказка – устный рассказ художественного произведения с установкой на вымысел, рассказываемый слушателям в воспитательных или развлекательных целях. Послушайте народные пословицы о сказках: Кашу кушай, а сказку слушай: умом – разумом смекай, да на ус мотай. Сказка от начала начинается, до конца читается, в середке не перебивается. Скоро сказка сказывается, да не скоро дело делается. В каждой сказка будет конец. Сказка вся, больше сказывать нельзя. Сказку слагать дело не простое. Каждая сказка имеет план построение сюжета: 1. Присказка – эстетический элемент в сказке. Является необязательным условием в построении сюжета сказки. Цель присказки – подготовить слушателей к восприятию сказки, настроить их. Присказка существует сама по себе, она не связана с содержанием произведения. Наличие присказки зависит от таланта сказочника, его характера. Пример: «Ай, потешить Вас сказочкой? А сказочка чудесная, есть в ней дива дивные, чуда чудные!» 2. Зачин – начало сказочного действия. Зачин уводит слушателя в сказочный мир, подчеркивает необычность того сказочного мира о котором дальше пойдет рассказ. Пример: «В некотором царстве, в некотором государстве жил-был Иван-Царевич» Зачин в сказке имеет огромную роль, он определяет место действия и время, знакомит с главными героями сказки. С помощью зачина автор увлекает читателя или слушателя в сказочный мир и завораживает его загадочностью и неопределенностью. 3. Основная часть сказки – это центральное действие сказки и развязка. Именно в этой части происходят волшебные превращения, произносятся магические слова, встречаются предметы или животные помощники, обладающие волшебным даром и т.д. Пример: «Сивка-бурка, вещая каурка! Стань передо мной, как лист перед травой!» 4. Исход или концовка – заключительная часть сказки. В ней подводятся итоги сказочного действия. Пример: «Стали они жить поживать и добра наживать». Известный собиратель сказок Александр Николаевич Афанасьев собрал великое множество народных сказок и разделил их по сюжету на: волшебные, бытовые, авантюрные, докучные, сказки о животных. Давайте познакомимся с удивительным и разнообразным миром сказок.
1. Сказки о животных.
Сказки о животных являются самыми древними произведениями. Древний человек одушевлял природу, наделял животных свойствами и качествами присущими человеку. В сказках о животных, звери умеют говорить между собой, выполняют хозяйственные дела. Животные в народных сказках не могут думать, они не обдумывают свои поступки, только действуют. В сказках о животных звери являются носителями одной особенности характера: лиса – хитра, медведь – неуклюж, волк – глуп. Сказки о животных интересны, просты, незатейливы, строятся на диалоге между животными, иногда в сюжете используют короткие выразительные песенки. Пример: Я Колобок, Колобок! Я по коробу скребен, По сусеку метен, На сметане мешон, Да в масле пряжон, На окошке стужон; Я от дедушки ушел, Я от бабушки ушел, И от тебя, зайца, не хитро уйти! Ребята, а какие сказки о животных Вы знаете? (Ответы детей) Примеры сказок о животных: «Теремок», «Вершки – Корешки», «Лисичка сестричка и волк», «Кот, петух и лиса», «Колобок», «Ледяная и Лубяная избушка» и другие.
2. Докучные сказки.
Докучные сказки – это сказки с бесконечно повторяющимся содержанием. От слова «докучать» – надоедать. С их помощью сказочник то разжигал интерес к слушанию сказок, то наоборот, останавливал тех, кто готов слушать их бесконечно. Ребята, а кто из Вас уже знаком с такими сказками? Пример: Жила-была бабка у самой речки. Захотелось бабке – искупаться в речке. И купила бабка себе мочало Эта сказка хороша – Начинай сначала!
3. Сказки бытовые
Бытовая сказка – это необыкновенные, неслыханные истории, истории о невозможном. Героями бытовых сказок являются бояре, чиновники, судьи наделенные всяческими пороками: глупостью, жадностью, безответственностью. С другой стороны умные, хитрые, смелые, находчивые крестьяне, солдаты. В этих сказках нет волшебных предметов и помощников. События сказки обычные события из жизни, но описаны с юмором. В бытовых сказках высмеиваются такие отрицательные черты как глупость, жадность, несправедливость. Пример: Сказка о попе и работнике Балде, Каша из топора.
4. Сказки авантюрные
Сказки авантюрные – краткий занимательный рассказ, сюжет из реальной жизни, который высмеивает общечеловеческие пороки. Это сказки о болтливых и жадных женах, о ленивых и неряшливых хозяйках, о наивности и человеческой простоте. Ребята, вспомните и назовите такие сказки? (ответы детей) Пример: Жадная старуха, Наговорная водица, Безручка.
5. Волшебные сказки
Волшебная сказка – самая яркая и распространенная в мире. Сказка наполнена чудесами и приключениями. В волшебных сказках обязательно встретятся предметы и вещи, наделенные магической силой (скатерть – самобранка, сапоги – скороходы, шапка – невидимка и другие), волшебную силу могут иметь слова (По щучьему велению по моему хотению), волшебные помощники (Конек-Горбунок, Щука волшебница и другие) В волшебных сказках встречаются положительные герои и отрицательные герои. Основные особенности волшебной сказки: наличие запрета (не пей из копытца, козленочком станешь), нарушение запрета (не послушался сестрицу брат Иванушка и попил из копытца), испытание (превратился в козленка), вознаграждение (козлёночек от радости три раза перекинулся через голову и обернулся мальчиком Иванушкой). В сказке нарушители запрета, всегда встают на путь исправления тех бед, который сам и натворил. В процессе преодоления испытаний и трудностей герой искупает свою вину добрыми делами и чистыми душевными помыслами. Сказка – оптимистическое произведение, в котором добро всегда побеждает зло. Сказочный вымысел всегда имеет скрытую мораль. Сказка ложь, да в ней намек – добру молодцу урок. Во время чтения сказок дети примеряют на себя роли тех или иных сказочных персонажей, воображение рисует образы. Дети искренне переживают за судьбу полюбившихся героев сказок. Ребята, а какие волшебные сказки Вы уже знаете? (ответы детей) Примеры: Гуси – Лебеди, По щучьему велению, Сестрица Аленушка и братец Иванушка, Царевна лягушка, Золушка и другие.
Викторина: Угадайте сказку 1. В какой сказке на море океане жил чудо юдо рыба кит? (Конек – Горбунок) 2. В какой сказке вырос овощ, который не могли вытащить из земли три человека и 3 животных? (Репка) 3. В какой сказке простой деревенский мужик во дворец на печи отправился? (По щучьему велению) 4. В какой сказке злая мачеха отправила девушку в лес за подснежниками? (Двенадцать месяцев) 5. В какой сказке старуху за жадность наказали? (Золотая рыбка) 6. В какой сказке девочка медведя перехитрила? (Маша и медведь) 7. В какой сказке отец в наследство сыну оставил кота? (Кот в сапогах) 8. В какой сказке девочка помогла выздороветь больной ласточке? (Дюймовочка) 9. В какой сказке все звери поселились в одном доме? (Теремок) 10. В какой сказке волк голос у кузнеца перековал? (Волк и семеро козлят) 11. В какой сказке девочку и ее собаку ураган унес в сказочную страну, где она нашла друзей? (Волшебник Изумрудного города) 12. В какой сказке был Цветочный город, в котором жили коротышки? (Приключения Незнайки и его друзей) 13. В какой сказке тыква превратилась в карету? (Золушка) 14. В какой сказке главный герой шалунишка, который живет на крыше? (Карлсон, который живет на крыше) 15. В какой сказке жили сестрицы одноглазка, двуглазка и триглазка? (Крошечка-Хаврочечка) Ведущая: Молодцы ребята, сказки внимательно слушали, всех сказочных героев знаете, и названия сказок Вы назвали абсолютно верно! А сами сказки сочинять умеете? (ответы детей) А это мы сейчас и проверим. Я начинаю, а Вы по очереди продолжаете. Итак, в некотором царстве, в некотором государстве жил был царь Еремей. Было у него три сына. Один был высокий, другой был роста среднего, а младший был низкий, росточком с табурет. И вот собрал сыновей отец и говорит: …(Дальше сюжет сказки складывают все дети группы по очереди).
Неотъемлемая часть любой сказки — это наличие в ней таких структурных компонентов как зачин, присказка или запев, и концовка. Каждая из этих частей играет свою определенную и очень важную роль в системе всего жанра. Все это – особая формула стиля, которая обусловливает непреходящий интерес к сказке, с ее богатым идейным содержанием, ясностью и чистотой выражаемых мыслей, художественной отточенностью и занимательностью сюжета.
Присказка
Обычно сказки, и в особенности волшебные, открывают свое повествование с присказки. Основная задача такого начала — погрузить читателя в особую атмосферу фантастического мира и настроить его, читателя или слушателя, на нужное восприятие сказочных событий всего произведения.
С первых строк магическое пространство будто бы обволакивает нас благодаря присказке, несмотря на то, что она имеет сравнительно небольшой размер. Стоит только вспомнить всем известного кота-Баюна, который мерно ходит и распевает свои песни по мощному дубу, возвышающемуся на острове посреди «океяна».
Удивительно, что особый настрой, призванный помочь постичь всю глубину и мудрость народной мысли рождается не от напыщенной назидательности, но с помощью юмора, который и свойственен присказке. Прием игры слов, элементы некоторой путаницы помогают избавить сказку от лишнего нравоучительного тона, но сохранить свое воспитательное назначение.
Зачин
Следующий неотъемлемый компонент любой сказки – зачин. Его цель состоит в выполнении нескольких важных задач, и, прежде всего, это обеспечение читателя достаточной информацией для того, чтобы помочь ему сформировать правильное представление о героях сказки, а в дальнейшем ходе повествования правильно понять и оценить их характеры, образ мыслей, причинно-следственные связи их поведения и поступков.
Таким образом, зачин, знакомит нас со сказочными персонажами, отправляет в нужное время и место описываемых событий. Уже из зачина становится очевидным, что язык сказки совершенно особенный, не похожий на речь, привычную нашему слуху – стоит вспомнить традиционное «жили-были» или «сказка сказывается».
Концовка
Но любое сказочное действие неизбежно должно быть приведено к своему логическому завершению, и здесь наступает время концовки со своей целью закончить рассказанную историю. Обычно с этой задачей справляются уже всем знакомые и вполне устойчивые высказывания: «живут-поживают, да добра наживают» или «по усам текло, в рот не попало».
Но не всегда концовка – это некоторое очевидное умозаключение, автор вполне себе может закончить свой сказ неожиданно и внезапно. Но он не должен забывать, что концовка, тем не менее, обязана быть составлена грамотно, так, чтобы безусловно в ней содержались выводы о рассказанном.
Для жанра сказки, также, характерно обильное употребление повторов, истинное назначение которых — приближать действие произведения к своему завершению, развязке. Повторы, каждый раз указывая на определенные детали предмета, персонажа или явления, служат целью усилить оказываемое впечатление на читателя.
Особую роль здесь играют детали, повторенные троекратно: три сына, три головы змея Горыныча, три испытания, данные герою.
Стихотворные части сказок
Во многих сказках обнаруживаются и части стихотворные, с особой рифмовкой. Таким образом создается своя собственная мелодия сказки, мотив, ее напевность и музыкальное настроение, в целом. «Сказовый» стих обычно может включать в себя разное количество слогов, но вот ударения, преимущественно, по количеству равные.
Отсюда вытекает еще одна особенность сказочного повествования – нередко можно встретить сказку, сродни песне. Часто прекрасные девицы запевают на берегу чистого озера свои печальные думы, или голосистый петушок песней призывает на помощь, попав в хитрые лапы проворной лисицы.
Из последнего примера, также, можно сделать вывод о том, что в сказках, также, широко распространено звукоподражание.
Диалогам в сказочном произведении всегда присущи живость и естественность. Интонацией персонажи нередко выдают свои истинные намерения и не всегда присущие им положительные качества – например, речь лисицы обязательно будет преисполнена лести, а голос солдата останется бойким, ровным и стройным в любой ситуации.
Насыщенность сказки различного рода повторами, параллелизмом, ритмическими конструкциями и другими своеобразными средствами выразительной речи, несомненно, доказывают красочность и богатство живого народного языка. Сохраняя и передавая из поколения в поколение высокие понятия о содержании добра и зла, справедливости, истине и других моральных ценностей сказка является источником всех самых важных жизненных определений и закономерностей.
О структуре сказок рассказывала Короткова Юлия
Вопрос «С каких слов начинаются ?», он, скорее всего, назовет фразу «Жили-были…». Действительно, это наиболее частый зачин русских народных . Кто-нибудь обязательно еще вспомнит: «В некотором царстве, в некотором государстве…» или «В тридесятом царстве, в тридесятом государстве…» – и тоже будет прав.
Некоторые сказки начинаются с обычного слова «однажды». А в иных, как, например, в «Три царства – медное, серебряное и золотое» время описывается как будто конкретнее, но все же очень расплывчато, по-сказочному: «В то давнее время, когда мир наполнен был лешими, ведьмами да русалками, когда реки текли молочные, берега были кисельные, а по полям летали жареные куропатки…»
Русские народные бытовые сказки, больше похожие на анекдоты, обходятся без традиционных зачинов. Например, «У одного мужика была жена сварливая…» или «В одном селе жили два брата».
Подобные зачины можно встретить не только в русских народных сказках, но и в сказках других народов.
О чем же говорят все эти присказки? Все очень просто. Слушатель или читатель сразу вводится в действие, узнает, с кем, где и в какое время будут происходить сказочные события. И ждет продолжения. Важно и то, что эти фразы ритмично построены таким образом, чтобы создать определенную напевность.
Зачины авторских сказок
У А.С. Пушкина в «Сказке о золотом петушке» собраны воедино сразу два сказочных зачина: «Негде, в тридевятом царстве, В тридесятом государстве, Жил-был славный царь Дадон».
Многие сказки начинаются отнюдь не с традиционных фраз. Например, первая строчка в сказке Андерсена «Огниво» такая: «Шел солдат по дороге: раз-два! раз-два!»
Или вот для примера зачины сказочных повестей Астрид Линдгрен: «В городе Стокгольме, на самой обыкновенной улице, в самом обыкновенном доме живёт самая обыкновенная шведская семья по фамилии Свантесон». («Малыш и Карлсон») «В ту ночь, когда Рони должна была появиться на свет, грохотал гром». («Рони – дочь разбойника»)
Но и здесь можно проследить, что сказки начинаются либо с представления героя, либо с обозначения места действия, либо говорят о времени.
Очень редко можно встретить сказки, начало которых посвящено пространным описаниям. Обычно зачины достаточно динамичны.
Например, один из любимейших российских детских поэтов Корней Иванович Чуковский без предисловий, сразу, будто на бегу вводит читателя в гущу сказочных событий. «Одеяло убежало, улетела простыня, и подушка, как лягушка, ускакала от меня». («Мойдодыр») «Скачет сито по полям, а корыто по лугам». («Федорино горе»)
Хороший зачин в сказке важен. От него зависит настрой, с которым слушатель или читатель погрузится в повествование.
Подготовьте сказывание отрывка из сказки, используя особенности одного из сказителей (на выбор). Используйте зачины, присказки, концовки, повторы.
Ответ
Используем для сказывания отрывок из красивой сказки Анны Барышниковой «Как барин собакой брехал».
Жил да был злой барин в деревне, и наказал он одного мужика через суд тем, что должен был тот брехать у него собакой, вместо убитой.
Брешет мужик год, брешет второй, надоело ему брехать и решил подговорить друзей обокрасть барина.
Те воруют, мужик брешет, барин его хвалит. У на утро хвать — обокрали, снова потащил барин мужика в суд. А судья в отказ — мужик свое дело исполнял, брехал и брехал.
Повез барин мужика в столицу, а ехали лесом. Ну мужик и напугал барина медведем, да сказал, что те собачьего лая бояться.
Стал тут барин брехать как собака, аж глаза на выкате. А медведя не было, сосна только стояла.
Стал барин просить, чтобы мужик никому не рассказывал как он опозорился, а мужик не согласен.
Барин с позору удавился, а мужик вольным стал и живет добро наживает.
Зачин сказки, присказка, былинный запев, молитвенное вступление, концовка – это части, входящие в структуру фольклорного произведения. Их следует отличать друг от друга. Сложное композиционное построение народных сказок не является случайным. Каждая из имеющихся в них частей играет определенную роль.
Что такое присказка
Большинство сказок, особенно волшебных, начинаются с присказки. Благодаря ее существованию слушатель постепенно погружается в особый мир и тем самым готовится к восприятию всего
Читая или слушая присказку, как ребенок, так и взрослый человек в своем воображении создают образ кота Баюна, им видится остров посреди океана, на нем возвышается могучий дуб с золотыми цепями и загадочным сундуком на могучих ветвях, вдали виднеется город из неведомого царства-государства.
Особенность, которой отличается присказка: зачин сказки, несмотря на свои маленькие размеры (порой это лишь несколько слов), способен сразу погрузить читателя в мир магии и волшебства. А это очень важно, ведь человек настроен не только получить наслаждение от прочитанного, но и постичь глубокую народную мудрость, которая заключена в содержании сказки. А без особого настроя добиться этого бывает очень сложно.
Очень часто присказка имеет юмористический характер с элементами неразберихи, тарабарщины, путаницы, игры слов. Благодаря такому приему удается избежать излишней назидательности, но при этом сохранить воспитательную роль произведения.
Функции зачина
Чтобы до конца понять, в сказке, необходимо разобраться в его назначении. Оно состоит в выполнении сразу нескольких задач:
познакомить читателя с главными произведения;
рассказать о времени совершения описанного действия;
дать представление о месте, где происходят события.
Юные читатели должны понимать, что зачин сказки очень важен. Уже в самом начале произведения можно получить достаточно много информации, которая в дальнейшем поможет до конца понять образ героев, их характеры и поступки.
Зачин сказки обязательно укажет на то, что язык произведения, с которым предстоит познакомиться, совершенно не похож на обыденную речь. Примером этому могут стать следующие выражения: “в некотором царстве, в некотором государстве”, “золотые маковки”, “стоит древо”, “сказка сказывается”, “море-окиян” и многие другие “сказочные” слова.
Начало сказок, их разнообразие
Зачины сказок и концовки имеют огромное разнообразие, их отличает структура, язык, смысловое содержание. Традиционное начало имеют только около 36% фольклорных произведений. Оно известно каждому человеку, воспитанному на традициях С раннего детства, когда ребенку рассказывают сказку, он слышит такие слова: “Жили-были…” Всего же при изложении сказок используется по меньшей мере девять разновидностей зачинов.
Концовка
“Вот и сказке конец, а кто слушал – молодец!” – традиционная форма концовки многих народных сказок. Кроме приведенного примера известно еще не менее пяти вариантов, с помощью которых сказочник может закончить рассказанную им историю. Зная, что такое зачин в сказке и для чего он используется, нетрудно догадаться, с какой целью употребляется концовка. Сказочные действия должны быть приведены к логическому завершению. Это помогает сделать грамотно составленная концовка произведения. Например, сказочник может закончить повествование так: “Живут-поживают да добра наживают!”, “Так часто бывает!”, “Живут, хлеб жуют!”. Иногда рассказчик может закончить сказку совсем неожиданно, но он должен помнить, что концовка подводит итог всему сказанному.
Другие особенности структуры фольклорного произведения
Сказки, основная ее часть, концовка могут содержать повторы. Каждый новый повтор чем-то отличается от предыдущего, и благодаря этому читатель может предполагать, чем закончится все повествование.
В структуру народных сказок естественным образом вписываются стихотворные части, что придает произведению музыкальность, настраивает читателя на особую поэтическую волну.
Стихи, используемые сказочником, имеют свои особенности. Огромный интерес у читателей вызывают сказочные повествования, полностью написанные таким стихом. Литераторы называют его сказовым.
В процессе изложения содержания сказки рассказчику иногда приходится не только говорить, но даже петь, так как герои часто используют именно такую между собой. Достаточно вспомнить сказки “Сестрица Аленушка и братец Иванушка”, “Кот, Петух и Лиса”, “Волк и семеро Козлят” и другие.
Звукоподражания, живой диалог между эпитеты, сравнения, гиперболы делают произведения народного творчества яркими и неподражаемыми. Ведь не зря русские сказки любят все, от мала до велика: в фольклоре заключена не только мудрость, но и истинная красота русского слова.
«В гостях у сказки» – Могу всё. “Спасите, нас съел серый волк” “ Очень расстроена. “Телеграмма”. Унесли братишку птицы. Отворили дверь козлята И пропали все куда-то. Женюсь на лягушке”. Заигралась сестрица. Сказки о животных, бытовые сказки. Сказочные заклинания. «По щучьему веленью, По моему хотенью». Описательного типа.
«Секреты сказок» – Лес. Ребята. Сочинители сказок. Формирование способности к восприятию нового знания. Мастера-сказочники. Секреты сказки. Корабльhttp. Виды сказок. Волшебная сказка. Творческая работа. Сказки-воспитатели.
«Сказки для 5 класса» – Моя любимая русская народная сказка. Элементы сказок. Примеры. Иван Андреевич Крылов. Самые известные басни. Виды сказок. Род литературы. Иван – крестьянский сын и чудо – юдо. Михайло Васильевич Ломоносов. Сказка.
«Волшебный мир сказок» – Загадочный мир сказок. Долго она бегала по полям, по лесам. Посели сказку в нужное жилище. Узнай сказку. Собери отрывок из сказки. Какие бывают сказки. Инсценировка сказок. В какое творчество входят сказки. Не поверили Иванушке братья, посмеялись над ним вволю. Солдат топор вымыл, опустил в котел, налил воды и поставил на огонь.
«Сказка как вид народной прозы» – Сказка. Теплота. Эпиграф. Занимательный рассказ. Полное сердце любви. Сказка как вид народной прозы. Экспертиза. Каша из топора. Интерес. Сценическое искусство.
«Волшебные сказки» – Гипербола – Котору лошадь по крестцу ударит, так и с ног долой упадёт. Волк побежал стрелой. Герои уходят из дома, чтобы всё исправить. «Сказка – складка (вымысел), а песня – быль…От слова «складывать». В тридесятом царстве, небывалом государстве… Сюжет волшебных сказок. Постель -пуховая. А вниз идёт – сказки сказывает.
Реальными создателями сказок были, конечно же, их исполнители – многие и многие безымянные сказочники. Вспомним, что народная сказка в отличие от литературной всегда рассказывалась, а не читалась…
Талантливые сказочники – это прежде всего знатоки сказок: от каждого из них собиратели, как правило, записывали большое количество сказок – иногда более ста! Сказочники в то же время и настоящие актёры.
Неспешно ведёт сказочник повествование о волшебных приключениях Ивана-царевича и серого волка; жесты скупы, голос ровный, речь течет неторопливо – кажется, ничто не волнует его, а мы взволнованны. Но вот сказочник начал сказку о животных, и манера исполнения изменилась. Голос его как бы исчез, но вместо его голоса появилось несколько новых и очень запоминающихся: «толстый» – это говорит медведь, хозяин лесов; слащавый, с хитринкой – это лиса, Лиса Патрикеевна, лисица – масляна погубица, кумушка лиса. Тоненьким голосочком ведёт разговоры зайчик – заюшка-побегаюшка.
Много талантливых сказочников! К сожалению, не обо всех мы располагаем данными, раскрывающими их творческий облик и жизненный путь. Однако о некоторых у нас есть сведения, хотя порой и скудные. Искусной сказочницей была няня А. С. Пушкина Арина Родионовна: её исполнение очаровывало великого поэта. С теплотой вспоминал свою няню Евгению М. Горький.
Сказочники были окружены вниманием, уважением, любовью. Часто их освобождали от тяжёлой физической работы, только бы они рассказывали. Известный сибирский сказочник И. Е. Сороковиков-Магай в 1930-е годы вспоминал: «Приезжаешь на мельницу – даже принимают мешки мне-ка помогать. „Он сёдне будет рассказывать сказки!” И пускали через очередь: „Смелем тебе, только говори сказки нам!” Но и на промыслу (на охоте) с товарищами приходилось говорить много. Ночь длинная, осеновская. Делать нечего. Начинаешь сказки говорить, и у них настроение повышается».
По Ю. Г. Круглову
Известный учёный, исследователь русского фольклора Марк Константинович Азадовский оставил интересные характеристики наиболее талантливых сказочников.
Замечательный сказочник Д. С. Асламов каждый раз готовился к сеансу, повторяя про себя сказки, и потом тщательно заботился, чтобы «всё было на месте и к месту».
Енисейский сказочник Ф. И. Зыков утверждает, что самое трудное в сказке – «разговор» (то есть диалог). «Тут одно слово неладно – и ничего не получится. Тут надо всё быстро делать».
А. К. Новопольцев вносит в волшебную сказку разнообразные «потешные элементы», рифмовку.
Форма особого балагурного стиля представлена и сказительницей А. К. Барышниковой. Она использует в сказках зачины, концовки, повторы, подробности, вводит ритм, рифму. Каждый раз она творит сказку.
Н. О. Винокурова сопровождает свои сказывания сказок жестами, мимикой героев, вводит в текст песни, пейзаж.
Известны и другие сказочники. Прочитайте книгу «Фольклор и литература» (М., 1996). Подготовьте к сказыванию для вечера сказок любимую сказку, подумайте, какие «краски» будете использовать при этом.
Обогащаем свою речь
Как вы думаете, почему ровная, неторопливая, даже немного торжественная манера оказывания волшебных сказок не годится для исполнения сказок о животных?
Каковы особенности сказывания сказок у разных сказителей?
Какими приёмами сказителей вы бы воспользовались при подготовке пересказа сказки?
Подготовьте сказывание отрывка из сказки, используя особенности одного из сказителей (на выбор). Используйте зачины, присказки, концовки, повторы.
Рассмотрите несколько слов-синонимов. Есть ли среди них сленг, разговорные слова?
Ругать – бранить – обзывать;
талантливый – знаток – классный.
Литература и изобразительное искусство
Каких художников – иллюстраторов народных сказок вы знаете и какие сказки они иллюстрировали?
Кто из художников украшает иллюстрации орнаментами?
Рассмотрите иллюстрации И. Билибина, репродукцию картины В. Васнецова. Составьте пересказы эпизодов сказок, опираясь на иллюстрации художников («Пир», «Встреча Ивана-царевича с царевной-лягушкой», «Встреча со старым старичком», «Иван-царевич и щука»).
Проверьте себя
Кто из сказочников пользовался следующими приёмами:
вносил «потешные элементы», рифмовку;
вводил в текст песни, пейзаж;
использовал зачины, концовки, повторы;
считал, что самое трудное в сказке – «разговор»;
заботился о том, чтобы «всё было на месте и к месту»?
У волшебных сказок
строгая и стройная композиция. Она в
основном держится на единстве идеи,
пронизывающей весь рассказ. При этом
сюжет может становиться очень сложным,
включать множество побочных ходов, но
все действия в сказке основаны на
стремлении главного героя к цели. Очень
часто, когда герой оказывается близок
к цели, повествование вдруг делает
поворот к неудаче, начинается новый
цикл приключений и поисков. Сказка
неизменно разрешается благоприятным
исходом для положительного героя.
Лучшие волшебные
сказки характеризуются традиционными
формулами присказки, зачина, повествования
и концовки. Иногда сказка начинается с
присказки, которая не связана с фабулой
сказки. Цель присказки – показать
мастерство сказочника, подготовить
аудиторию к слушанию сказки. Присказка
– необязательная часть волшебной
сказки, она может быть короткой: «Дело
было на море, на окияне, на острове Буяне,
среди воды, где деревья росли», или
развернутой: «Начинается сказка от
Сивки, от Бурки, от вещей каурки. На море,
на океане, на острове Буяне стоит бычок
печеный, возле него лук толченый; шли
три молодца, зашли да позавтракали, а
дальше идут – похваляются, сами собой
забавляются. Это присказка, сказка будет
впереди!».
За присказкой
следует сказочный зачин, который своей
неопределенностью снимает вопрос о
достоверности событий. Зачин указывает
фантастическое место («В некотором
царстве, в некотором государстве»),
фантастическое время («При царе Горохе»)
и называет героев («Жил-был царь и было
у него три сына»). После зачина следует
основная повествовательная часть
сказки. Повествование ведется при помощи
многочисленных художественных приемов,
один из них – сказочные формулы или
общие места: «скоро сказка сказывается,
да не скоро дело делается», «утро вечера
мудренее», «такая краса, что не в сказке
сказать, ни пером описать» и др. Структура
сказки подчинена созданию драматически
напряженных ситуаций, что подчеркивает
повтор событий. Чаще всего событие
повторяется три раза – троичность
действия, возможно троекратное повторение
эпизода с наращением эффекта, этот прием
придает сказке характерную эпичность,
замедленность в развитии действия. В
сказке встречаются и многократные
повторы.
Волшебные сказки
иногда очень большие по объему, чему
способствует использование приема
«нагромождение однородных действий».
В сказке «Марья Моревна» этот прием
используется неоднократно, в ней как
бы соединены несколько сюжетов. Идейная
направленность сказки обусловила и
контрастную обрисовку достоинств героя
и пороков его врагов, поэтому контрастность
– один из основных художественных
приемов в сказке. Психологические
характеристики элементарны, одни всегда
положительные, другие – отрицательные.
Действующих лиц немного, только те,
которые принимают активное участие в
действии. Характеры героев не изменяются,
проявляются не в рассуждениях, а в
действии, в поступках. Волшебная сказка
не останавливается перед прямой
идеализацией героя и героини.
Для сказочного
сюжета характерен прием «отраженного
действия», основанный на том, что если
герой в начале сказки великодушно
оказывает кому-то помощь, то впоследствии
ему платят добром («Волшебное кольцо»,
«По щучьему велению»). В волшебных
сказках встречается и прием «ступенчатое
сужение образа» (например, описание
места, где спрятана смерть Кощея – от
описания острова, где растет дуб… до
кончика иглы). В драматически напряженных
местах сказка прибегает к повторности
описания, к рифмованному параллелизму
(«конь бежит, земля дрожит», «пестом
погоняет, помелом ему подметает»). В
сказке широко используется ретардация,
замедление в развитии действия, чему
способствует использование повторов,
троичность действия, а также драматический
и живой диалог, который повторяется без
изменений на протяжении повествования.
Сказка обычно
заканчивается концовкой, которая, как
и присказка, часто шутлива, ритмична,
рифмована: «и я там был, мед-вино пил, по
губам текло, в рот не попало», «вот
сказка, а мне бубликов связка». Назначение
концовки – вернуть слушателя из
сказочного мира в реальный. Присказки,
зачины и концовки имеют довольно
устойчивый текст и представляют собой
своего рода формулы.
Язык волшебной
сказки приближен к разговорной речи, в
ней используются, как и во всех фольклорных
произведениях, постоянные эпитеты (море
синее, лес дремучий), тавтологические
сочетания (диво-дивное, чудо-чудное),
сросшиеся синонимы (путь-дороженька,
грусть-тоска). Текст сказки насыщен
пословицами, поговорками, загадками.
Тематические материалы:
Обновлено: 14.07.2019
103583
Если заметили ошибку, выделите фрагмент текста и нажмите Ctrl+Enter
начальных тем | GradeSaver
Начало начинается – и, возможно, заканчивается – внутри сна, и каждая сцена просит зрителя оценить, действительно ли то, что они видят, является сном или нет. В фильме сны представляют собой воображаемые арены, где секреты, травмы и неразрешенные чувства уязвимы для раскрытия и извлечения. Кобб и Артур впервые появляются во сне Сайто, пытаясь извлечь бизнес-секреты для компании под названием Cobol Corporation, а позже должны проникнуть в сны Роберта Фишера.Как Кобб объясняет Ариадне, сны наполнены «проекциями» разума сновидца, и разум Кобба, в частности, преследует чувство вины из-за воспоминаний о его мертвой жене Мэл. Кобб предупреждает Ариадну никогда не строить миры снов, используя воспоминания, которые могут быть слишком соблазнительными и увести мечтателя от реальности.
Кристофер Нолан заявил, что он хотел, чтобы Inception отражал идею о том, что сны кажутся реальными до тех пор, пока они происходят. Реальность, или оболочка реальности, является ключевым аспектом Inception, , который информирует не только о сценах, в которых персонажи населяют внешний мир, но и о тех, где персонажи мечтают.Для того, чтобы сконструированная мечта была эффективной, она должна, по сути, представлять собой реальность, поэтому тонкая ошибка Нэша при воссоздании коврового покрытия Сайто ставит под угрозу миссию во вступительной части фильма. Нолан постоянно стирает грань между реальностью и сновидениями: фильм начинается с мечты во сне, которую зритель может легко принять за реальность, а Мэл убивает себя, потому что думает, что реальность – это еще один сон.
Начало – фильм, который вращается вокруг использования технологий военного уровня в соперничестве между двумя транснациональными корпорациями, возглавляемыми Сайто и Робертом Фишерами.Хотя во внешнем мире это соперничество принимает форму корпоративного шпионажа, в мире сновидений эта враждебность часто перерастает в прямое насилие и войну. Согласно научно-фантастической посылке фильма, в котором технология «обмена сновидениями» сделала мысли уязвимыми для воровства, такие важные цели, как Сайто и Фишер, должны милитаризировать свое подсознание против нежелательных угроз. Нолан использует тему войны, чтобы показать, как разум естественным образом защищает себя от манипуляций и принуждения, например, когда проекции во сне Фишера запускают скоординированную засаду, чтобы отразить попытку проникновения команды Кобба.
Кобб больше не может строить сны, потому что он все еще испытывает чувство вины за обстоятельства смерти своей жены, и поэтому его преследует проекция ее воспоминаний. Хотя Кобб первоначально говорит Ариадне, что она никогда не должна использовать воспоминания для построения снов, Ариадна позже обнаруживает, что Кобб разделяет интимные моменты со своими воспоминаниями о своей жене (например, в их юбилейном номере) в укромных уголках его разума. В Inception память – это тема, которая отражает то, как неразрешенные привязанности к прошлому могут задерживаться в подсознании, исключая возможность истинного счастья.Мэл, в частности, является персонажем, воплощающим ядовитую и саморазрушительную тенденцию Кобб жить в театре памяти, где она все еще жива. В конце концов Ариадна заставляет Кобба отвлечься от воспоминаний о Мале.
В Inception, для создания миров снов требуется опытный архитектор, который может кропотливо создавать поверхности и структуры самого мира. Во сне возможны плавные, изменчивые и парадоксальные архитектурные формы, такие как лестница Пенроуза, которую Артур показывает Ариадне.Нолан использует архитектурную сложность как способ отразить сложность человеческого разума. Например, Кобб сначала приказывает Ариадне рисовать лабиринты ручкой и бумагой, прежде чем показать ей, как строить миры снов, чтобы познакомить ее с лабиринтообразной средой, которая понадобится команде, чтобы избежать проекций. Сюрреалистическая архитектура пространств сновидений, такая как скрытая операционная за панелью управления крепостью Фишера или подземный гостиничный номер Кобба, моделирует различные «уровни» разума и то, как разум подавляет определенные формы знания.
Dreams по-разному путают субъективное восприятие времени в Inception . Как объясняет Кобб Ариадне, час во сне – это всего лишь пять минут в реальности. Когда кто-то погружается «глубже» в последующие слои сновидения, время становится еще более искаженным, как это происходит, когда команда должна пройти три уровня в сновидении Роберта Фишера, чтобы осуществить начало. Кобб признается, что они с Малом провели вместе, казалось, пятьдесят лет в «подвешенном состоянии», прежде чем он «внушил» ей идею хотеть проснуться.Сны также являются местом, где проекции из прошлого могут продолжать проявляться в настоящем, как Мэл продолжает делать в подсознании Кобба. Нолан использует сновидения как способ исследовать эластичность и жесткость времени – например, хотя разные слои сновидения разворачиваются с разной скоростью, сновидца необходимо разбудить «толчком», который синхронизируется одновременно на всех уровнях сновидения.
Чувство вины Кобба за обстоятельства смерти его жены составляет эмоциональный центр фильма.В частности, Кобб чувствует себя виноватым за то, что устроил начало своей жене Мэл, чтобы она согласилась проснуться от пятидесятилетнего сна, который они разделили вместе, и снова быть со своими детьми. Неразрешенная вина Кобба во внешнем мире делает его уязвимым для нападения в его снах, в которые проекция Мэла склонна вторгаться. Использование в фильме песни Эдит Пиаф «Ne, Je Ne Regrette Rien» («Нет, я ни о чем не сожалею») также является отсылкой к теме вины, исполненной с точки зрения женщины, решившей отказаться от своей привязанности к прошлое.Подобно голосу песни Пиаф, Кобб в конце концов учится отстраняться от своих чувств вины и сожаления по поводу смерти Мэла.
Классификация рака молочной железы по гистопатологическим изображениям с начальной рекуррентной остаточной сверточной нейронной сетью
J Digit Imaging. 2019 Aug; 32 (4): 605–617.
, , , , и
Md Zahangir Alom
Департамент электротехники и вычислительной техники, Дейтонский университет, Дейтон, Огайо, США
Chris Yakopcic
Департамент электрики и компьютеров Инженерное дело, Дейтонский университет, Дейтон, Огайо, США
Mst.Шамима Насрин
Кафедра электротехники и вычислительной техники, Дейтонский университет, Дейтон, Огайо, США
Тарек М. Таха
Кафедра электротехники и вычислительной техники, Дейтонский университет, Дейтон, Огайо, США
Виджаян К. Асари
Департамент электротехники и вычислительной техники, Дейтонский университет, Дейтон, штат Огайо, США
Департамент электротехники и вычислительной техники, Дейтонский университет, Дейтон, штат Огайо, США
Глубокая сверточная нейронная сеть (DCNN) – один из самых мощных и успешных подходов к глубокому обучению. Сети DCNN уже продемонстрировали превосходные характеристики в различных методах медицинской визуализации, включая классификацию, сегментацию и обнаружение рака груди. Рак груди – один из самых распространенных и опасных видов рака, поражающих женщин во всем мире.В этой статье мы предложили метод классификации рака груди с помощью модели Inception Recurrent Residual Convolutional Neural Network (IRRCNN). IRRCNN – это мощная модель DCNN, которая сочетает в себе возможности начальной сети (Inception-v4), остаточной сети (ResNet) и рекуррентной сверточной нейронной сети (RCNN). IRRCNN демонстрирует превосходную производительность по сравнению с эквивалентными начальными сетями, остаточными сетями и RCNN для задач распознавания объектов. В этой статье подход IRRCNN применяется для классификации рака груди на двух общедоступных наборах данных, включая задачу классификации BreakHis и рака груди (BC) 2015 г.Результаты экспериментов сравниваются с существующими подходами, основанными на машинном обучении и глубоком обучении, в отношении классификации на основе изображений, на основе патчей, на уровне изображений и на уровне пациента. Модель IRRCNN обеспечивает превосходные характеристики классификации с точки зрения чувствительности, площади под кривой (AUC), кривой ROC и глобальной точности по сравнению с существующими подходами для обоих наборов данных.
В настоящее время рак является одной из ведущих причин заболеваемости и смертности во всем мире.Приблизительно 14,5 миллиона человек умерли от рака, и, по оценкам, к 2030 году это число превысит 28 миллионов. Согласно исследованию Американского онкологического общества (ACS), в США расчетная смертность от рака груди составляет примерно на 14% всех случаев смерти от рака (всего 41000 в 2017 году), что является второй по значимости причиной смерти от рака у женщин после рака легких и бронхов. Кроме того, на рак груди приходится 30% всех вновь обнаруженных случаев рака. Рак груди – это наиболее часто диагностируемый рак у женщин в США.Биопсия с последующим анализом микроскопических изображений – обычное дело при диагностике рака груди [1]. Биопсия ткани молочной железы позволяет патологу гистологически получить доступ к структурам и компонентам ткани молочной железы на микроскопическом уровне. Эти гистологические изображения позволяют патологу различать нормальную ткань, доброкачественную (доброкачественную) ткань и злокачественные образования. Полученная информация затем используется для выполнения прогностической оценки [2].
Доброкачественные поражения относятся к изменениям в нормальной ткани паренхимы молочной железы и не связаны с прогрессированием злокачественного новообразования.Существует два различных типа тканей карциномы, включая инвазивный и инвазивный. Тип ткани in situ относится к ткани, содержащейся внутри протоково-дольчатой ткани молочной железы. С другой стороны, клетки инвазивной карциномы распространяются за пределы протоково-дольчатой структуры молочной железы. Образцы тканей, которые собираются во время биопсии, обычно окрашиваются гематоксилином и эозином (H&E) перед визуальным анализом, выполняемым специалистом. В процессе диагностики пораженная область определяется сканированием тканей целого предметного стекла [3].Кроме того, патологоанатом анализирует микроскопические изображения образцов ткани из биопсии с различными коэффициентами увеличения. В настоящее время для постановки правильного диагноза патологоанатом рассматривает различные характеристики изображений, включая узоры, текстуры и различные морфологические свойства [4]. Анализ изображений с разными коэффициентами увеличения требует панорамирования, масштабирования, фокусировки и сканирования каждого изображения целиком. Этот процесс очень трудоемкий и утомительный; в результате этот ручной процесс иногда приводит к неточному диагнозу для выявления рака груди.В связи с развитием цифровых методов визуализации в последнее десятилетие, различные методы компьютерного зрения и машинного обучения стали применяться для анализа патологических изображений с микроскопическим разрешением [4, 5]. Эти подходы могут помочь автоматизировать некоторые задачи, связанные с патологическим рабочим процессом в системе диагностики. Однако для использования в клинической практике необходим эффективный и надежный алгоритм обработки изображений. К сожалению, традиционные подходы не оправдывают ожиданий.В результате мы все еще далеки от практического применения автоматического определения рака груди по гистологическим изображениям [5].
Тем не менее, недавние разработки в области глубокого обучения (DL) уже продемонстрировали огромный потенциал с современной производительностью для различных задач распознавания в области компьютерного зрения и обработки изображений, распознавания речи и понимания естественного языка [6] . Эти подходы применялись в различных модальностях медицинской визуализации, включая патологическую визуализацию с превосходными характеристиками в классификации, сегментации и обнаружении [7].В некоторых случаях системы на основе DL стали частью рабочего процесса в клинической практике с патологами и врачами. Некоторые примеры включают работу на уровне дерматолога при обнаружении рака кожи, диабетической ретинопатии, нейровизуализации для анализа опухолей головного мозга и болезни Альцгеймера, обнаружении рака легких, а также обнаружении и классификации рака груди [7]. Хотя эти подходы показали огромный успех в медицинской визуализации, они требуют очень большого количества данных этикеток, которые по нескольким причинам все еще недоступны в этой области приложений.Что наиболее важно, для аннотирования набора данных требуется большой опыт, что очень дорого. В этой статье мы предлагаем основанный на DL подход для системы распознавания рака груди с использованием модели IRRCNN, которая оценивается с использованием наборов данных BreakHis и Breast Cancer Classification Challenge 2015. Вклад этой статьи резюмируется следующим образом:
Успешная бинарная и мультиклассовая классификация рака груди с инвариантным коэффициентом увеличения с использованием модели IRRCNN.
Эксперименты проводились на недавно выпущенных общедоступных наборах данных по гистопатологии рака молочной железы (таких как набор данных BreakHis), где мы оценивали данные на уровне изображений и на уровне пациентов с различными увеличивающими коэффициентами (включая × 40, × 100, × 200, и × 400).
Оценка на основе изображений и патчей проводилась для наборов данных BreakHis и Breast Cancer Classification Challenge 2015.
Экспериментальные результаты сравниваются с недавно предложенными подходами к глубокому обучению и машинному обучению, и предлагаемая нами модель обеспечивает превосходную производительность по сравнению с существующими алгоритмами классификации рака груди.
Этот документ организован следующим образом: в разделе «Сопутствующие работы» обсуждаются связанные работы. Архитектура модели IRRCNN обсуждается в «Модель IRRCNN для распознавания рака груди». «Экспериментальные результаты и обсуждение» объясняет наборы данных, экспериментальную установку и результаты. Наконец, заключение и будущее направление представлены в «Заключении».
Родственные работы
Значительные усилия были предприняты для распознавания рака груди (РМЖ) по гистологическим изображениям за последнее десятилетие, когда большинство усилий было приложено для классификации двух основных типов рака груди (доброкачественного и злокачественного) с использованием компьютерных технологий. диагностика (CAD).До революции глубокого обучения подходы машинного обучения, включая машину опорных векторов (SVM), анализ основных компонентов (PCA) и случайный лес (RF), использовались для изучения данных, особенности которых были извлечены с помощью масштабно-инвариантного извлечения признаков (SIFT), локального двоичное формирование паттернов (LBP), локальное фазовое квантование (LPQ), матрица совместной встречаемости уровней серого (GLCM), статистика пороговой смежности (TAS) и TAS без параметров (PFTAS). В 2016 году была выпущена одна из очень популярных баз данных для проблемы классификации BC, и одна исследовательская группа сообщила о примерно 85.Точность 1% с использованием функций SVM и PFTAS для анализа на уровне пациента [8], что было наивысшей точностью распознавания в то время. В 2013 году была опубликована еще одна работа, в которой для классификации ядер в наборе данных из 500 образцов от 50 пациентов использовались различные алгоритмы (включая K-средние, нечеткие C-средние, нейронные сети конкурентного обучения и модели смеси Гаусса). Сообщалось о точности для бинарных классов (доброкачественные и злокачественные). Эта работа обеспечила точность от 96 до 100% [9].
Система машинного обучения для распознавания рака груди на основе нейронных сетей (NN) и SVM была опубликована в 2013 году, в которой сообщается о 94% точности распознавания для набора данных, состоящего из 92 образцов [10]. Другой метод был предложен на основе каскадирования с опцией отклонения, который был протестирован на наборе данных из 361 выборки из Израильского технологического института, и он сообщил о точности классификации около 97% [11]. По большей части исследования в этой области проводились с использованием очень небольшого числа выборок из преимущественно частных наборов данных.Недавно был опубликован обзор гистологического анализа изображений для выявления и классификации рака груди, который четко описывает двойственность и ограничения различных общедоступных аннотированных наборов данных [12]. Была предложена эффективная структура с функциями цветовой текстуры и множественными классификаторами, использующими технику голосования, которая сообщила о среднем уровне распознавания примерно 87,53% для классификации BC на уровне пациента. В этой реализации использовались SVM, дерево решений (DT), классификатор ближайшего соседа (NNC), дискриминантный анализ (DA) и классификаторы ансамбля.До 2017 года эта система обеспечивала лучшую точность распознавания среди всех подходов, основанных на машинном обучении [13].
Более того, уже опубликовано много работ, в которых обсуждается распознавание рака груди с использованием подходов DL, в которых для классификации применяются варианты CNN. Некоторые из этих экспериментов проводятся с набором данных BreakHis. В 2016 году была предложена независимая от увеличения классификация рака молочной железы на основе CNN, в которой использовались ядра свертки разного размера (7 × 7, 5 × 5 и 3 × 3).Они выполнили классификацию рака груди на уровне пациента с помощью моделей CNN и многозадачных CNN (MTCNN) и сообщили о скорости распознавания 83,25% [14]. В том же году была опубликована еще одна работа, основанная на модели, аналогичной AlexNet, с различными методами слияния (включая сумму, произведение и максимум) для классификации рака груди на уровне изображений и на уровне пациента. В этой статье сообщается о средней точности распознавания 90% и 85,6% при использовании метода максимального слияния для изображений и классификации на уровне пациента соответственно [15].Еще один метод, основанный на глубоком обучении, был опубликован в 2017 году. В этой работе предварительно обученная CNN использовалась для извлечения векторов признаков, и, в конечном итоге, векторы признаков использовались в качестве входных данных для классификатора. Этот метод получил название DeCAF и позволил достичь точности распознавания 86,3% и 84,2% на уровне пациента и уровне изображения соответственно [16].
Модель CNN использовалась для классификации изображений биопсии груди, окрашенных гематоксилином и эозином, из другого сложного набора данных в 2017 году [17]. Изображения были классифицированы по четырем различным классам: нормальная ткань, доброкачественное поражение, карцинома in situ и инвазивная карцинома.Изображения также были классифицированы по бинарным классам; рассматриваются карцинома (которая включает нормальную и доброкачественную ткань) и некарцинома (которая включает классы in situ и инвазивные карциномы). Работа в [17] предоставляет результаты как для оценки на основе изображений, так и на основе заплат. Подход на основе CNN достиг точности распознавания приблизительно 77,8% при выполнении эксперимента с четырьмя классами и точности распознавания 83,3% для эксперимента с бинарными классами при тестировании с набором данных BC Classification Challenge 2015.Недавно была представлена множественная классификация рака груди по гистопатологическим изображениям с использованием структурированной модели глубокого обучения под названием CSDCNN. Эта новая архитектура DL демонстрирует превосходную производительность по сравнению с различными подходами, основанными на машинном обучении и глубоком обучении, с использованием набора данных BreakHis. Эта модель демонстрирует самые современные характеристики классификации как на уровне изображений, так и на уровне пациента. Сообщается, что средняя точность классификации рака груди на уровне пациента составляет 93,2% [18].В 2017 году для распознавания рака груди применялись различные методы на основе SMV; точность 94,97% для данных с коэффициентом увеличения × 40 была достигнута с помощью Adaptive Sparse SVM (ASSVM) [19]. Однако в нашей работе представлено применение новой модели глубокого обучения под названием Inception Recurrent Residual Convolutional Neural Network (IRRCNN) для классификации BC в наборах данных BreakHis и 2015 Breast Cancer Classification Challenge.
Модель IRRCNN для распознавания рака молочной железы
Подходы DL демонстрируют огромный успех в тех случаях, когда доступно достаточно помеченных данных, и было предложено несколько передовых подходов к глубокому обучению, которые продемонстрировали современную производительность в различных модальностях компьютерного зрения и медицинская визуализация в последние несколько лет [6, 7].IRRCNN [20, 21] – одна из многих, которые представляют собой улучшенную гибридную архитектуру DCNN, основанную на начальной [22], остаточной сети [23] и архитектуре RCNN [24]. Основное преимущество этой модели заключается в том, что она обеспечивает лучшую производительность распознавания с использованием того же количества или меньшего количества сетевых параметров по сравнению с альтернативными эквивалентными подходами глубокого обучения, включая начало, RCNN и остаточную сеть. В этой модели начальные остаточные единицы используются по отношению к модели Inception-v4 [2].IRRCNN сравнивался с эквивалентными начально-остаточными сетями, и он показывает лучшие характеристики [20]. Модель IRRCNN состоит из стеков, которые включают как начальные повторяющиеся остаточные единицы (IRRU), так и переходные единицы. Вся модель представлена на рис. Общая модель состоит из нескольких слоев свертки, IRRU, переходных блоков и softmax на выходном слое. Наглядное изображение IRRU показано на рис.
Схема реализации для распознавания рака груди с использованием модели IRRCNN.Верхняя часть этого рисунка показывает шаги, которые используются для обучения системы, а нижняя часть этого рисунка отображает этап тестирования, на котором используется обученная модель. Эти результаты оцениваются с помощью ряда различных показателей производительности.
Диаграммы, отображающие начальную повторяющуюся остаточную единицу (IRRU), состоящую из начальной единицы и повторяющихся сверточных слоев, которые объединяются путем конкатенации, и остаточных единиц (суммирование входных характеристик с выходы начального блока можно увидеть непосредственно перед выходным блоком)
Наиболее важным блоком в архитектуре IRRCNN является IRRU, который включает в себя повторяющиеся сверточные уровни (RCL), начальные блоки и остаточный уровень.Входы подаются на входной уровень, затем проходят через начальные блоки, где применяются RCL, и, наконец, выходы начальных блоков добавляются к входам IRRU. Повторяющиеся операции свертки выполняются по отношению к ядрам разного размера в начальном блоке. Из-за повторяющейся структуры внутри сверточного слоя выходные данные текущего временного шага добавляются к выходным данным предыдущего временного шага. Выходные данные текущего временного шага затем используются как входные данные для следующего временного шага.Те же операции выполняются в отношении учитываемых временных шагов. Например, здесь t = 2 (0 ~ 2) означает, что одна свертка с прямой связью вместе с 2 RCL включены в IRRU. Работа RCL относительно различных временных шагов ( t = 2 (0 ~ 2) и t = 3 (0 ~ 3)) показана на рис. Из-за остаточной связи в IRRU размеры входа и выхода не меняются. IRRU просто выполняет накопление карт характеристик по временным шагам.Таким образом обеспечивается лучшее представление признаков, и эта система обеспечивает превосходную точность распознавания при том же количестве сетевых параметров.
Операции RCL выполняются относительно дискретных временных шагов, которые выражены в соответствии с IRRCNN в [20]. Рассмотрим входную выборку x l в слое l th блока IRRCNN и единицу ( i , j ) из входной выборки в k -я карта объектов в RCL.Кроме того, предположим, что выход сети Oijklt находится на временном шаге t . Учитывая эту информацию, выход может быть выражен как в формуле. (1).
Oijklt = wkfT ∗ xlfijwkrT ∗ xlrijt − 1bk
1
Здесь xlfijt и xlrijt − 1 – входные данные для стандартных сверточных слоев и для l th RCL соответственно. Значения wkf и wkr – это веса для стандартного сверточного слоя и RCL карты характеристик k -й соответственно, а b k – смещение.
В уравнении. (2), f – это функция активации стандартного выпрямленного линейного блока (ReLU). Мы также исследовали производительность этой модели с функцией активации экспоненциальной линейной единицы (ELU) в следующих экспериментах. Выходы y начальных единиц для ядер разного размера и среднего уровня пула определены как y 1 x 1 ( x ), y 3 x 3 ( x ) и y1x1px соответственно.Конечные результаты модуля начальной рекуррентной сверточной нейронной сети (IRCNN) определяются как Fxlwl, что может быть выражено как в формуле. (3).
Fxlwl = y1x1x⨀yx⨀y1x1px
3
Здесь ⨀ представляет операцию конкатенации по отношению к оси канала или карты признаков. Затем выходы блока IRCNN добавляются к входам блока IRRCNN. Остаточная работа блока IRRCNN может быть выражена как в формуле. (4).
В уравнении. (4), x l + 1 относится к входам для ближайшего следующего переходного блока, x l представляет входные выборки блока IRRCNN, w l представляет веса ядра –-го блока IRRCNN, а Fxlwl представляет выходные данные от –-го уровня блока IRCNN.Однако количество карт характеристик и размеры карт характеристик для остаточных единиц такие же, как в единице IRRCNN, показанной на рис. К выходам IRRU применяется пакетная нормализация [25]. В конце концов, выходы этого IRRU подаются на входы непосредственно следующего переходного блока.
В блоке перехода выполняются различные операции, включая свертку, объединение и выпадение, в зависимости от размещения блока перехода в модели. Начальные единицы включены в переходную единицу.Операции понижающей дискретизации выполняются в переходных блоках, где мы выполняем операции максимального объединения с патчем 3 × 3 и шагом 2 × 2. Неперекрывающаяся операция max-pooling отрицательно влияет на регуляризацию модели; поэтому мы использовали перекрывающийся max-pooling для регуляризации сети, что очень важно при обучении глубокой сетевой архитектуры [22]. Позднее использование объединяющего слоя помогает увеличить нелинейность объектов в сети, так как это приводит к тому, что карты объектов более высокой размерности проходят через слои свертки в сети.Мы использовали два специальных уровня пула в модели с тремя блоками IRRCNN и одним переходным блоком для этой реализации.
В этой реализации мы использовали только фильтры свертки 1 × 1 и 3 × 3, что было вдохновлено моделями NiN [26] и Squeeze Net [27]. Это также помогает свести количество сетевых параметров к минимуму. Преимущество добавления фильтра 1 × 1 заключается в том, что он помогает увеличить нелинейность решающей функции без какого-либо влияния на сверточный слой. Поскольку размер входных и выходных функций не изменяется в единицах IRRCNN, результатом является просто линейная проекция на то же измерение, а нелинейность добавляется к функциям активации RELU и ELU.Мы использовали пропускание 0,5 после каждого сверточного слоя в переходном блоке. Наконец, мы использовали softmax или уровень нормализованной экспоненциальной функции в конце архитектуры. Для входной выборки x , вектора весов W и K различных линейных функций операция softmax может быть определена для класса i th , как в уравнении. (5).
Py = ix = exTwi∑k = 1KexTwk.
5
Предложенная модель IRRCNN была исследована с помощью серии экспериментов на различных наборах данных эталонных тестов, и результаты сравнивались с несколькими различными моделями.
Модель IRRCNN оценивается с различным количеством сверточных слоев в блоках свертки, и количество слоев определяется с учетом временного шага t. В этих реализациях t = 2 относится к блоку RCL, который содержит одну прямую свертку, за которой следуют два RCT [20]. Для обоих наборов данных распознавания рака груди мы использовали модель с двумя сверточными слоями в начале, четырьмя блоками IRCNN, за которыми следуют переходные блоки, полностью связанным слоем и слоем softmax в конце модели.Для этой модели мы рассмотрели 32 и 64 карты признаков для первых трех сверточных слоев и использовали 128, 256, 512 и 1024 карты признаков в первом, втором, третьем и четвертом блоках IRRCNN соответственно. Пакетная нормализация (BN) используется в каждом блоке IRCNN [25]. Эта модель содержит примерно 9,3 миллиона сетевых параметров.
Экспериментальные результаты и обсуждение
Экспериментальная установка
Чтобы продемонстрировать производительность моделей IRRCNN, мы протестировали их на двух разных наборах данных BC: наборе данных BreakHis и наборе данных 2015 года по классификации рака груди как для двоичного, так и для мультиклассового BC. классификация.В следующем абзаце подробно рассматриваются оба набора данных. Для этой реализации использовались фреймворки Keras (https://github.com/keras-team/keras.git) и Tensor Flow [28] на машине с одним графическим процессором с 56 ГБ ОЗУ и NVIDIA GEFORCE GTX-980 Ti. . В этой реализации мы рассмотрели другой критерий анализа патологического изображения. В большинстве случаев размеры полных изображений слайдов (WSI) больше, чем у обычных цифровых изображений. Кроме того, патологические изображения получают с разными коэффициентами увеличения.В некоторых случаях размер изображения превышает 2000 × 2000 пикселей. Однако в этом случае изображения обычно поступают в модель в виде нескольких фрагментов. Для выбора участков используются два общих процесса, один из которых – метод случайной обрезки, при котором участки обрезаются из случайного места во входной выборке. Альтернативой является использование последовательных и неперекрывающихся патчей. В этой реализации мы рассмотрели оба метода.
Наборы данных
BreakHis
Набор данных BreakHis является общедоступным и обычно используется для изучения проблемы классификации рака груди.Этот набор данных содержит 7909 образцов, каждый из которых относится к двум основным классам: доброкачественным и злокачественным. Доброкачественная подгруппа содержит 2440 образцов, а злокачественная подгруппа содержит 5429 образцов. Образцы взяты у 82 пациентов с различными коэффициентами увеличения, включая × 40, × 100, × 200 и × 400. Некоторые примеры изображений с кратностью увеличения × 400 показаны на рис. Каждый класс имеет четыре подкласса; четыре типа доброкачественного рака – это аденоз (A), фиброаденома (F), канальцевая аденома (TA) и опухоль филлодий (PT).Четыре подкласса злокачественного рака – это протоковая карцинома (DC), лобулярная карцинома (LC), муцинозная карцинома (MC) и папиллярная карцинома (PC). Статистика для этого набора данных представлена в таблице. В этом эксперименте мы использовали 70% выборок для обучения и 30% выборок для тестирования, согласно работе [8, 12, 18]. Чтобы обобщить задачу классификации для успешного выполнения при тестировании новых пациентов, мы гарантируем, что пациенты, выбранные для обучения, не будут использоваться во время тестирования. В соответствии с планом эксперимента [12, 18], мы сообщили о средней точности после успешного завершения пяти испытаний.
В первом ряду показаны четыре типа доброкачественных опухолей, а во втором ряду показаны злокачественные опухоли. Коэффициент увеличения этих изображений составляет × 400
Таблица 1
Статистика для основной выборки и подкласса и количество пациентов для набора данных BreakHis
Классы
Подклассы
Количество пациентов
Коэффициенты увеличения
Всего
× 40
× 100
× 200
× 400
Доброкачественное
A
4
114
113 44
F
10
253
260
264
237
1014
TA
3
109
121 115
121
7
149
150
140
130
569
Злокачественный
DC
38
864
903
896
788
3451
LC
5
156
9030 MC
9
205
222
196
169
792
PC
6
145
142
135
135
138 138
1995
2081
2013
1820
7909
Для увеличения данных мы сгенерировали 21 образец из каждой отдельной входной выборки с различными методами увеличения, включая вращение, переворачивание, сдвиг и перенос.Таким образом, общее количество образцов было увеличено в 21 раз. Например, общее количество изображений, доступных при увеличении × 40, теперь составляет 41895. Мы сгенерировали 43 701; 42 273; и 38 220 образцов из исходных образцов для коэффициентов увеличения × 100, × 200 и × 400 соответственно. Таким образом, общее количество увеличенных образцов для всех коэффициентов увеличения составляет 166 068. Мы оценили производительность на уровне изображения и на уровне пациента как для двоичного, так и для мультиклассового распознавания рака груди.
BC Classification Challenge 2015
Этот набор данных состоит из цифровых изображений патологии с очень высоким разрешением (2040 × 1536), которые являются аннотированными изображениями, окрашенными H и E, для классификации рака груди, выпущенной в 2015 году [17, 29].Этот набор данных содержит в общей сложности 249 образцов, из которых 229 образцов выделены для обучения, а остальные образцы рассматриваются для тестирования, согласно работе в [17]. Изображения были помечены двумя патологами, и общий контекст был рассмотрен без указания области интереса. Каждому изображению присвоена одна из следующих четырех категорий: (а) нормальная ткань, (б) доброкачественная (в), in situ и (г) инвазивная карцинома. Примеры изображений, отображающих четыре различных типа BC, показаны на рис.. Каждый класс имеет около 60 образцов, что решает проблему несбалансированности классов для задач классификации.
Образцы изображений четырех типов рака груди (нормальный, доброкачественный, карцинома in situ и инвазивная карцинома) из набора данных 2015 BC Classification Challenge
В этой реализации модель оценивается для бинарной и многоклассовой классификации BC. В случае проблемы бинарной классификации нормальные ткани и доброкачественные подмножества считаются классом один, а подмножества in situ и инвазивной карциномы считаются частью класса два.Согласно визуальному анализу набора данных, видно, что радиус ядер колеблется от 3 до 11 пикселей (или от 1,26 до 4,62 мкм). Следовательно, пятна размером 128 × 128 пикселей способны покрывать достаточную часть структуры ткани (в соответствии с экспериментом, проведенным в [17]). Мы провели эксперименты, используя как оценку по изображениям, так и по фрагментам. Для классификации изображений мы использовали три разных подхода: во-первых, мы изменили размер входных выборок до 128 × 128 пикселей, что значительно ухудшило информацию, содержащуюся в выборках.Во-вторых, к изображениям с измененным размером были применены различные методы увеличения данных, при этом для каждого образца было создано 20 различных расширенных выборок. В-третьих, 200 случайных патчей были вырезаны для создания базы данных патчей для обучения и тестирования модели. Метод Winner Take All (WTA) использовался для получения результатов, в которых окончательный класс определялся на основе класса, в котором было номинировано максимальное количество патчей. Считается, что метки патчей имеют тот же класс, что и исходные изображения.С другой стороны, при использовании подхода «патч» сначала из исходной входной выборки были вырезаны центральные участки размером 128 × 128 пикселей. Во-вторых, к изображению были применены методы увеличения (для каждого образца было сгенерировано 20 расширенных образцов), а центральные участки были вырезаны из расширенных образцов. В-третьих, мы оценили модель с 200 случайно выбранными пятнами размером 128 × 128 пикселей из одного изображения. Статистика по образному и патч-подходу представлена в таблице.
Таблица 2
Статистика для набора данных 2015 BC Classification Challenge
Методы
Некарцинома
Карцинома
Всего
Нормальная
Доброкачественная
In situ
In situ
По изображению
55
69
63
62
249
Расширенные образцы
1155
1449
1323
1323
1323
9716
12,057
11,059
10,875
43,707
Увеличение данных
В каждом наборе данных мы применили различные методы увеличения данных, включая последовательное вращение на 40 градусов, сдвиг по ширине с коэффициентом 0.2, сдвиг по высоте с коэффициентом 0,2, сдвиг с коэффициентом 0,2, масштабирование с диапазоном 0,2, горизонтальное отражение и вертикальное отражение. На рисунке показаны некоторые примеры изображений вместе с различными расширенными образцами для четырех разных классов данных. Из рис. 2 видно, что к некоторым частям изображений был добавлен шум. Поэтому мы также оценили наш метод, используя только центральную часть расширенных сэмплов. Субдискретизированные и центральные участки показаны для двух разных входных отсчетов на рис..
Четыре примера изображений с соответствующими увеличенными изображениями. Фактические изображения показаны слева, а четыре расширенных образца (из 20, созданных для каждого изображения) показаны справа
Центральное пятно и изображения с измененными размерами из исходного образца (слева) и из расширенного образца (справа)
Методология обучения
В первом эксперименте мы тренировались с архитектурой IRRCNN с использованием функции оптимизации стохастического градиентного спуска (SGD) в общей сложности для 150 эпох.После 50 эпох скорость обучения уменьшается в 10 раз. Мы устанавливаем импульс равным 0,9, и распад рассчитывается на основе начальной скорости обучения и количества эпох, равного 50.
Результаты и обсуждение
В этой работе , мы ввели автоматическую классификацию рака груди как для бинарных, так и для мультиклассовых задач на двух разных наборах данных. В случае задачи классификации BC с несколькими классами в этой реализации рассматривались четыре и восемь классов. Мы достигли высочайшей точности тестирования для обоих наборов данных.
Результаты для BreakHis
Согласно работе [12, 18], мы рассмотрели два критерия, по которым оценивается производительность модели IRRCNN. Мы рассмотрели (1) уровень изображения и (2) производительность на уровне пациента для многоклассовой классификации восьми типов рака груди, которые подпадают под два основных типа (доброкачественные или злокачественные). Кроме того, мы также оценили производительность системы бинарных классов для доброкачественных и злокачественных типов. Для классификации на уровне изображений мы не рассматривали изображения пациента.Для этого эксперимента изображения организованы в восемь классов, и изображения содержат коэффициент увеличения × 40, × 100, × 200 или × 400. В этом случае производительность измеряется различными оценочными метриками. Для оценки эффективности подхода глубокого обучения IRRCNN, как в [18], рассматриваются два различных критерия производительности. Во-первых, мы рассмотрели анализ производительности на уровне пациента, где общее количество пациентов определено как N np ; количество изображений BC ассоциированного пациента ( P ) определяется как N ncp .Количество правильно классифицированных изображений пациента обозначено N ntp . Уравнение (6) определяет оценку пациента ( P s ).
Глобальная скорость распознавания пациента ( P rt ) определяется в формуле. (7).
Мы также рассчитали эффективность подхода IRRCNN для классификации на уровне изображений. Мы определяем общее количество образцов, доступных для тестирования, как N T .Правильно классифицированное количество гистопатологических образцов определяется как N CCT . Скорость распознавания на уровне изображения ( I rt ) выражается в формуле. (8).
Точность обучения и проверки модели IRRCNN для классификации рака груди показана на рис. Из этого рисунка видно, что коэффициенты увеличения образцов влияют на точность обучения и тестирования. Мы достигли наилучшей точности обучения с коэффициентом увеличения × 100, а точность обучения, достигнутая для данных с коэффициентом увеличения × 200, составляет очень близкую секунду.
Точность обучения и проверки для классификации BC с 8 классами для модели IRRCNN при различных коэффициентах увеличения
Точность тестирования для мультиклассовой и двоичной классификации BC показана в таблице и таблице соответственно. Эти таблицы демонстрируют точность тестирования для анализа на уровне изображений и на уровне пациента с добавлением и без увеличения данных в наборе данных BreakHis.
Таблица 3
Результаты классификации рака груди и сравнение для нескольких классов (8 классов) с увеличением данных и без методов увеличения данных в наборе данных BreakHis
Методы
Год
Степень классификации (100% ) при коэффициенте увеличения
× 40
× 100
× 200
× 400
Уровень изображения
CNN + патчи [15]
2016
85.6 ± 4,8
83,5 ± 3,9
83,1 ± 1,9
80,8 ± 3,0
LeNet + Август [18]
2017
40,1 ± 7,1
37,5 ± 6,7
40,1 ± 3,4
± 5,9
AlexNet + Авг. [18]
2017
70,1 ± 7,4
75,8 ± 5,4
73,6 ± 4,8
84,6 ± 1,8
CSDCNN + Август [183]
92,8 ± 2,1
93.9 ± 1,9
93,7 ± 2,2
92,9 ± 2,7
IRRCNN + без августа
2018
95,69 ± 1,18
95,37 ± 1,29
95,61 ± 1,37
IRRCN + Август
2018
97,09 ± 1,06
97,57 ± 0,89
97,29 ± 1,09
97,22 ± 1,22
Уровень пациента
LeNet + Aug.[18]
2017
48,2 ± 4,5
47,6 ± 7,5
45,5 ± 3,2
45,2 ± 8,2
AlexNet + Авг. [18]
2017
74,6 ± 7,1
73,8 ± 4,5
76,4 ± 7,4
79,2 ± 7,6
CSDCNN + Авг [18]
2017
94,1 ± 2,1
93,2 ± 1,4
94,7 ± 3,6
93,5 ± 2,7
Август
2018
95.81 ± 1,81
94,44 ± 1,3
95,61 ± 2,9
94,32 ± 2,1
IRRCNN + август
2018
96,76 ± 1,11
96,84 ± 1,13
96,67 ± 1,27
96,27 ± 0,87
Таблица 4
Результаты классификации рака груди и сравнение для бинарной классификации (доброкачественная и злокачественная опухоль) с увеличением данных и без методов увеличения данных в наборе данных BreakHis
Метод
Год
Степень классификации при коэффициенте увеличения
× 40
× 100
× 200
× 400
Уровень изображения
CNN + fusion (сумма, произведение, макс.) [15]
2016
85.6 ± 4,8
83,5 ± 3,9
83,6 ± 1,9
80,8 ± 3,0
AlexNet + август [18]
2017
85,6 ± 4,8
83,5 ± 3,9
83,1 ± 1,9
± 3,0
ASSVM [19]
94,97
93,62
94,54
94,42
CSDCNN + август [18]
95303
3,1
95302 3,1
± 2.0
94,90 ± 2,8
IRRCNN + без августа
2018
97,16 ± 1,37
96,84 ± 1,34
96,61 ± 1,31
95,78 ± 1,44
IRRCNN + август
2018
97,95 ± 1,07
97,57 ± 1,05
97,32 ± 1,22
97,36 ± 1,02
Уровень пациента
CNN + fusion (sum, product, max) [15]
2016
90.0 ± 6,7
88,4 ± 4,8
84,6 ± 4,2
86,10 ± 6,2
Байрамоглу и др. [14]
2016
83,08 ± 2,08
83,17 ± 3,51
84,63 ± 2,72
82,10 ± 4,42
Мульти-классификатор Gupta et al. [13]
2017
87,2 ± 3,74
88,22 ± 3,23
88,89 ± 2,51
85,82 ± 3,81
CSDCNN + август. [18]
2017
92.8 ± 2,1
93,9 ± 1,9
93,7 ± 2,2
92,90 ± 2,7
IRRCNN + без августа
2018
96,69 ± 1,18
96,37 ± 1,29
96,15 96302
± 1,61
IRRCNN + август
2018
97,60 ± 1,17
97,65 ± 1,20
97,56 ± 1,07
97,62 ± 1,13
При оценке уровня изображения мы сгенерировали 41 895; 43,701; 42 273; и 38 220 увеличенных образцов для коэффициентов увеличения × 40, × 100, × 200 и × 400 соответственно, которые были собраны у 82 пациентов.Для каждого случая мы использовали 70% случайно выбранных образцов для обучения, а оставшиеся 30% образцов – для проверки и тестирования в соответствии с экспериментальной установкой, описанной в [8, 18]. Для мультиклассовой классификации BC (8 классов) наивысшая точность достигается для коэффициента увеличения × 100, что на 3,67% выше средней точности тестирования пяти испытаний по сравнению с недавно опубликованным результатом в [20]. Модель показывает среднюю точность тестирования 97,95% для × 40, что на 2,15% лучше по сравнению с наивысшей точностью, заявленной для существующего метода в [18].Для анализа производительности на уровне пациента мы рассмотрели 21 пациента для тестирования из 82 пациентов в соответствии с экспериментальным методом, рассмотренным в [18]. Мы достигли 96,84% и 97,65% средней наивысшей точности тестирования для восьми классов и двоичной классификации BC соответственно, что примерно на 2,14% и 3,75% выше точности тестирования по сравнению с наивысшей средней точностью, указанной в [18].
Кроме того, эффективность распознавания BC анализируется с помощью различных методов слияния, включая сумму, произведение и максимум в [15].Таким образом, мы сравнили производительность предложенного нами метода с наивысшей точностью, описанной в [15]. В обоих случаях подход на основе IRRCNN показывает более высокую производительность по сравнению с существующими методами на основе DL в [8, 15, 18]. Площадь под ROC-кривой предлагаемого метода для различных коэффициентов увеличения представлена на рис.
Кривая ROC с AUC для различных коэффициентов увеличения для восьми классов классификации BC
Результаты для BC Classification Challenge 2015
Для набора данных BC Classification Challenge 2015 года точность обучения и проверки для различных методов показаны на рис.a и b соответственно. Экспериментальные результаты при использовании измененных и расширенных выборок показывают наивысшую точность обучения и проверки согласно рис.
Точность обучения и проверки для случая с несколькими классами с использованием набора данных 2015 BC Classification Challenge. Размеры наборов образцов изменяются и увеличиваются (RZ + AUG), центральные участки кадрируются и увеличиваются (CRP + AUG), случайные участки (RP), размер образцов изменяется (RZ) или центральные участки кадрируются (CRP)
Patch-Wise Classification Results
Результаты экспериментов для различных методов на основе заплаток показаны в таблицах и.Из таблиц, как для двоичных, так и для нескольких классов, эксперименты с расширенными центральными пятнами показывают наивысшую точность тестирования, которая составляет 97,51% и 97,11% соответственно. Аналогичная производительность наблюдается со случайными пятнами, но эксперименты с одноцентровыми пятнами показывают самую низкую точность, которая составляет 88,7% и 88,12% для двоичных и многоклассовых случаев соответственно.
Таблица 5
Эффективность тестирования для подхода на основе заплат для классификации двоичного класса BC: центральные пятна (CRP), CRP из расширенных выборок и случайные пятна (RP)
Модель CNN
Методы
Год
Чувствительность
Специфичность
Точность
AUC
CNN [17]
–
–
0.776
–
CNN + SVM [17]
–
–
0,769
–
IRRCNN
0,830 0,830 0,8308
0,9239
IRRCNN
CRP + август
2018
0,9452
0,9829
0,9751
0,9925
9307
0,9797
0,9676
0,9882
Таблица 6
Тестирование производительности для подхода на основе заплат для мультиклассовой классификации BC: центральные пятна (CRP), расширенный CRP и случайные пятна (RP)
Модель CNN
Критерии
Год
Чувствительность
Специфичность
Точность
AUC
CNN [17]
667
–
CNN + SVM [17]
0,810
–
0,650
–
–
IRRCNN
911 CRP 0,830
0,9169
IRRCNN
CRP + август
2018
0,9371
0,9809
0,9711
0,9905
IRRC317 0302
9290
0,9752
0,9634
0,9824
Результаты классификации Image-Wise
Экспериментальные результаты производительности на уровне изображения для двоичного и мультиклассового случаев приведены в таблицах и соответственно. Из таблиц видно, что образцы изменения размера с аргументацией данных показывают лучшую производительность по сравнению с образцами только изменения размера. Эксперименты с увеличенными образцами с измененным размером показывают точность тестирования 99,05% и 98,59% для двоичного и мультиклассового случаев соответственно.Наименьшая точность тестирования наблюдалась для образцов с измененными размерами.
Таблица 7
Производительность для классификации BC на основе изображения для двоичного случая
Модель CNN
Критерий
Год
Чувствительность
Специфичность
Точность
CNN
17]
2017
–
–
0,806
–
CNN + SVM [17]
2017
–
–
–
833
–
IRRCNN
Образцы RZ
2018
0,878
0,926
0,884
0,912
IRRCNN
0,9905
0,9932
IRRCNN
RP + WTA
2018
1,00
1,00
1,00
1,00
Базовая классификация изображений BC для таблицы 8
класс case
Модель CNN
Критерий
Год
Чувствительность
Специфичность
Точность
AUC
CNN
0.778
–
CNN + SVM [17]
2017
–
–
0,778
–
IRRCNN
образцы
0,9204
0,917
IRRCNN
RZ + август
2018
0,9771
0,9889
0,9859
0,9905
00
1,00
1,00
1,00
Кроме того, мы оценили производительность на основе изображений, когда 20 случайных выборок были отделены от четырех разных классов (5 выборок на класс). Мы обучили модель на случайно выбранных участках из 229 образцов (200 участков на образец) и проверили и протестировали на случайно выбранных участках из 20 образцов (200 участков на образец). В конце концов, мы применили технику WTA к результатам, полученным от модели, где окончательный класс был определен на основе класса, в котором было номинировано максимальное количество патчей.Мы достигли 100% точности тестирования для этой оценки, используя WTA как для двоичного, так и для мультиклассового распознавания BC.
Анализ и сравнение результатов
BreakHis Dataset
В большинстве предыдущих исследований сообщалось о результатах классификации доброкачественных и злокачественных случаев [8, 15, 18]. Однако некоторые исследования показали результаты для многоклассовой задачи классификации рака груди [15, 18]. Эти эксперименты проводились как для бинарных, так и для многоклассовых задач на образцах с коэффициентами увеличения × 40, × 100, × 200 и × 400.На основе набора данных BreakHis были применены различные подходы на основе функций, включая PFTAS, GLCM, QDA, SVM, 1-NN и RP, а точность анализа на уровне пациента составила примерно 85% [8]. Кроме того, AlexNet использовался для бинарного распознавания рака груди при различных коэффициентах увеличения, и наивысшая достигнутая точность распознавания составила 95,6 ± 4,8% для анализа на уровне изображений и 90,0 ± 6,7% для анализа на уровне пациентов [15]. Кроме того, самая высокая точность классификации доброкачественного и злокачественного РМЖ составила 96.9 ± 1,9% для уровня изображения и 97,1 ± 2,8% для уровня пациента [18]. Для многоклассовой классификации рака молочной железы наилучшая достигнутая точность тестирования составила 93,9 ± 1,9% и 94,7 ± 3,9% для анализа на уровне изображения и на уровне пациента соответственно [18].
В качестве альтернативы, в этой работе мы достигли точности тестирования 97,95 ± 1,07% и 97,65 ± 1,20% для классификации доброкачественных и злокачественных РМЖ для анализа на уровне изображений и на уровне пациента. Таким образом, мы достигли улучшения средней производительности на 1,05% и 0,55% по сравнению с наивысшей точностью, описанной для анализа изображений и на уровне пациента в [18].Кроме того, предложенная нами модель IRRCNN обеспечила точность тестирования 97,57 ± 0,89% и 96,84 ± 1,13% для мультиклассовой классификации BC на уровне изображения и на уровне пациента соответственно. Эти результаты представляют собой улучшение средней точности распознавания на 3,67% и 2,14% по сравнению с последними данными [18].
BC Classification Challenge Dataset 2015
В 2014 году Crus-Roa et al. предложили основанный на CNN метод классификации с вводом на основе патчей, и они сообщили о чувствительности 79.6% [30]. Наивысшая точность была отмечена в 2017 году для четырех различных типов рака груди в одном наборе данных, а эксперименты проводились как для бинарных, так и для многоклассовых задач классификации рака молочной железы. Поскольку размерность данных высока (2040 × 1536 пикселей), был проведен анализ как на уровне изображений, так и на уровне фрагментов для бинарной и многоклассовой классификации рака груди. Был использован подход CNN, и лучшие результаты были получены для классификации на уровне изображений, которая составила 77.Точность тестирования 8% и 83,3% для четырех и двух классов соответственно [17]. Напротив, мы провели эксперимент, основанный на модели IRRCNN, с учетом различных критериев, включая изменение размера, обрезку, случайные участки и различные методы увеличения данных. Для образцов с измененным размером и расширенных образцов мы достигли точности тестирования 99,05% и 98,59% для двоичного и многоклассового распознавания рака молочной железы соответственно. Кроме того, мы достигли 100% эффективности тестирования в эксперименте, в котором модель классификации применяется к случайным патчам, а затем применяется метод Winner Take All для получения окончательных результатов.Таким образом, наш метод показывает значительное улучшение современных характеристик как для бинарного, так и для многоклассового распознавания рака груди в наборе данных 2015 BC Classification Challenge. Время вычислений для этих экспериментов приведено в Таблице .
Таблица 9
Время вычисления на образец для экспериментов по классификации BC
Набор данных
Метод
Общее время (с)
Количество образцов
Время на образец (с)
BreakHis
На основе дополненного изображения
72.06
8732
0,08
Набор данных BCC 2015
На основе изображения
45,72
50
0,9144
на основе патчей
75,93
75.93
75,97
В этой статье мы предложили бинарные и мультиклассовые методы распознавания рака груди с использованием модели Inception Recurrent Residual Convolutional Neural Network (IRRCNN). Эксперименты проводились с использованием модели IRRCNN на двух различных наборах контрольных данных, включая BreakHis и испытание по классификации рака молочной железы 2015 года, а эффективность оценивалась с использованием различных показателей эффективности.Эффективность предложенного метода оценивалась с помощью анализа на уровне изображения, на уровне пациента, на основе изображений и на основе фрагментов. В этой реализации мы рассмотрели различные критерии, такие как коэффициент увеличения, входные данные сэмплов с измененным размером, расширенные патчи и сэмплы, а также классификацию на основе патчей. Предлагаемый подход показывает примерно 3,67% и 2,14% улучшение средней точности распознавания по набору данных BreakHis по сравнению со всеми результатами, опубликованными в научных отчетах по состоянию на 2016 год. Кроме того, этот метод показывает 99.Точность тестирования 05% и 98,59% для бинарного и многоклассового распознавания рака груди в наборе данных 2015 г. Мы также оценили производительность предложенного метода с использованием случайных патчей и подходов Winner Take All (WTA) для распознавания на основе изображений и достигли 100% точности тестирования. Таким образом, экспериментальные результаты показывают современную точность тестирования для распознавания рака груди по сравнению с существующими методами для обоих наборов данных.
Сноски
Примечание издателя
Springer Nature сохраняет нейтралитет в отношении юрисдикционных претензий на опубликованных картах и сведений об учреждениях.
Ссылки
1. Лукас С., Костопулос С., Таноглиди А., Глотсос Д., Сфикас С., Кавурас Д. Характеристика рака молочной железы на основе классификации изображений срезов тканей, визуализированных при малом увеличении. Вычислительные и математические методы в медицине 2013 2013 [Бесплатная статья PMC] [PubMed] 2.Элстон CW, Эллис И.О. Патологические прогностические факторы рака груди. I. Значение гистологической степени злокачественности при раке груди: опыт крупного исследования с долгосрочным наблюдением. Гистопатология. 1991. 19 (5): 403–410. DOI: 10.1111 / j.1365-2559.1991.tb00229.x. [PubMed] [CrossRef] [Google Scholar] 3. Гуркан М.Н., Бушерон Л.Э., Кан А., Мадабхуши А., Раджпут Н.М., Йенер Б. Гистопатологический анализ изображений: обзор. IEEE Rev Biomed Eng. 2009; 2: 147–171. DOI: 10.1109 / RBME.2009.2034865. [Бесплатная статья PMC] [PubMed] [CrossRef] [Google Scholar] 4.Макканн М. Т., Озолек Дж. А., Кастро К. А., Парвин Б., Ковачевич Дж. Автоматический гистологический анализ: возможности для обработки сигналов. IEEE Signal Process Mag. 2015; 32 (1): 78–87. DOI: 10.1109 / MSP.2014.2346443. [CrossRef] [Google Scholar] 5. Пейкари М., Ганге М.Дж., Зубовиц Дж., Кларк Г., Мартель А.Л. Сортировка диагностически значимых областей из целых слайдов патологии рака груди: подход, основанный на текстуре. IEEE Trans Med Imaging. 2016; 35 (1): 307–315. DOI: 10.1109 / TMI.2015.2470529. [PubMed] [CrossRef] [Google Scholar]
6.Алом М.З., Таха TM, Якопчич С., Вестберг С., Хасан М., Ван Эсесн Б.К., Аввал А.А.С. и Асари В.К.: История началась с AlexNet: всеобъемлющий обзор подходов к глубокому обучению. arXiv препринт arXiv: 1803.01164 , 2018
7. Litjens G, Kooi T, Bejnordi BE, Setio AAA, Ciompi F, Ghafoorian M, van der Laak JAWM, van Ginneken B, Sánchez CI. Обзор по глубокому обучению в области анализа медицинских изображений. Med Image Anal. 2017; 42: 60–88. DOI: 10.1016 / j.media.2017.07.005. [PubMed] [CrossRef] [Google Scholar] 8.Spanhol FA, Oliveira LS, Petitjean C, Heutte L. Набор данных для гистопатологической классификации изображений рака груди. IEEE Trans Biomed Eng. 2016; 63 (7): 1455–1462. DOI: 10.1109 / TBME.2015.2496264. [PubMed] [CrossRef] [Google Scholar] 9. Коваль М., Филипчук П., Обухович А., Корбич Дж, Мончак Р. Компьютерная диагностика рака груди на основе микроскопических изображений тонкоигольной биопсии. Comput Biol Med. 2013. 43 (10): 1563–1572. DOI: 10.1016 / j.compbiomed.2013.08.003. [PubMed] [CrossRef] [Google Scholar] 10. Джордж YM, Zayed HH, Roushdy MI, Elbagoury BM.Удаленная компьютерная система обнаружения и диагностики рака груди на основе цитологических изображений. IEEE Syst J. 2014; 8 (3): 949–964. DOI: 10.1109 / JSYST.2013.2279415. [CrossRef] [Google Scholar] 11. Чжан И, Чжан Б., Коэнен Ф., Вэньцзинь Л. Диагностика рака молочной железы по изображениям биопсии с помощью высоконадежных групп случайных подпространственных классификаторов. Mach Vis Appl. 2013. 24 (7): 1405–1420. DOI: 10.1007 / s00138-012-0459-8. [CrossRef] [Google Scholar] 12. Вета М, Плюм JPW, Ван Дист П.Дж., Вьергевер Массачусетс. Анализ изображений гистопатологии рака груди: обзор.IEEE Trans Biomed Eng. 2014. 61 (5): 1400–1411. DOI: 10.1109 / TBME.2014.2303852. [PubMed] [CrossRef] [Google Scholar]
13. Гупта В., Бхавсар А: Гистопатологическая классификация изображений рака груди: важно ли увеличение? In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops , pp. 17–24. 2017
14. Байрамоглу Н., Каннала Дж. И Хейккила Дж .: Глубокое обучение для классификации изображений гистопатологии рака молочной железы, не зависящей от увеличения.В Pattern Recognition ( ICPR ), 2016 23-я Международная конференция по , стр. 2440–2445. IEEE, 2016
15. Спанхол Ф.А., Оливейра Л.С., Петижан С., Хейтте Л.: Классификация гистопатологических изображений рака молочной железы с использованием сверточных нейронных сетей. В Neural Networks ( IJCNN ), 2016 International Joint Conference on , pp. 2560–2567. IEEE, 2016
16. Спанхол Ф.А., Оливейра Л.С., Кавалин П.Р., Петижан С., Хейтте Л.: Глубинные особенности для гистопатологической классификации изображений рака груди.В Systems , Man , и Cybernetics ( SMC ), Международная конференция IEEE, 2017 г., , стр. 1868–1873. IEEE, 2017
17. Араужо Т., Ареста Дж., Кастро Э, Роуко Дж., Агиар П., Элой С., Полония А., Кампильо А. Классификация изображений гистологии рака груди с использованием сверточных нейронных сетей. ПлоС один. 2017; 12 (6): e0177544. DOI: 10.1371 / journal.pone.0177544. [Бесплатная статья PMC] [PubMed] [CrossRef] [Google Scholar] 18. Хань З., Вэй Б, Чжэн И, Инь И, Ли К., Ли С.Мульти-классификация рака груди по гистопатологическим изображениям с помощью структурированной модели глубокого обучения. Научный доклад 2017; 7 (1): 4172. DOI: 10.1038 / s41598-017-04075-z. [Бесплатная статья PMC] [PubMed] [CrossRef] [Google Scholar]
19. Кахья М.А., Аль-Хаяни В., Альгамал З.Й.: Классификация изображений гистопатологии рака молочной железы на основе машины адаптивных разреженных опорных векторов. J Appl Math Bioinform 7.1 (2017): 49
20. Алом МдЗ, Хасан М., Якопчич С., Таха TM, Асари В.К.: Улучшенная начально-остаточная сверточная нейронная сеть для распознавания объектов. arXiv препринт arXiv: 1712.09888 2017
21. Алом М.З., Хасан М., Якопчич С., Таха TM: Начальная рекуррентная сверточная нейронная сеть для распознавания объектов. препринт arXiv arXiv: 1704.07709 , 2017
22. Szegedy C, et al: Inception-v4, Inception-Resnet и влияние остаточных связей на обучение. препринт arXiv arXiv: 1602.07261 2016
23. He K et al: Глубокое остаточное обучение для распознавания изображений. Труды конференции IEEE по компьютерному зрению и распознаванию образов.2016
24. Лян М., Ху Х: Рекуррентная сверточная нейронная сеть для распознавания объектов. Труды конференции IEEE по компьютерному зрению и распознаванию образов . 2015
25. Иоффе С., Сегеди С: Пакетная нормализация: ускорение глубокого обучения сети за счет уменьшения внутреннего ковариантного сдвига. препринт arXiv arXiv: 1502.03167 , 2015
26. Линь М., Чен Кью, Ян С: Сеть в сети. препринт arXiv arXiv: 1312 . 4400, 2013
27.Иандола Ф. Н., Хан С., Москевич М. В., Ашраф К., Далли В. Дж., Койцер К.: Squeezenet: точность на уровне Alexnet с 50-кратным уменьшением параметров и размером модели <0,5 МБ. препринт arXiv arXiv: 1602.07360 , 2016
28. Абади М. и др.: Tensorflow: система для крупномасштабного машинного обучения. OSDI . Vol. 16, 2016
30. Cruz-Roa A et al: Автоматическое обнаружение инвазивной протоковой карциномы на полных изображениях слайдов с помощью сверточных нейронных сетей. Медицинская визуализация 2014: цифровая патология .Vol. 9041. Международное общество оптики и фотоники, 2014 г.
Все, что вы хотели знать о «Начале»
«Начало» Кристофера Нолана, еще до того, как он попал в кинотеатры в пятницу, был одним из самых обсуждаемых фильмов года и одним из это наиболее спорное. Но прежде чем вы сможете составить мнение, вам нужно знать, что происходит, с чем, похоже, сталкиваются даже несколько опытных критиков.
Подобно прорывному фильму Нолана «Память», «Начало» представляет собой тщательно продуманный, намеренно дезориентирующий лабиринт взаимосвязанных временных рамок, только здесь ставки повышаются.Вместо того, чтобы бросать вызов нам выяснить, что произошло, «Начало» представляет события, которые, возможно, вообще не произошли. Действие фильма происходит в мире снов и снов в сновидениях. Этот фильм является повествовательным эквивалентом набора русских матрешек. Каждый раз, когда вам кажется, что вы достигли центра, Нолан разбирает пленку и показывает нам другой мир, скрывающийся внутри.
Структурируя “Начало” как фильм о подсознательном грабеже, следуя примеру группы похитителей снов во главе с Леонардо Ди Каприо, которые проникают в сознание наследника бизнеса Киллиана Мерфи, Нолан дает нам прочную нить, за которую мы можем цепляться, когда мы прыгаем между концентрическими слоями. мечты.Но если вы хотите по-настоящему понять механику мира «Начало», а не просто отправиться на прогулку, вам нужно посмотреть фильм несколько раз и провести серьезное время, разгадывая его тайны.
Или вы можете позволить нам сделать работу за вас. В русле наших объяснений для “Memento”, “Mulholland Drive”, “Battlestar Galactica” и “Southland Tales” мы придумали то, что, по нашему мнению, является окончательным резюме разворачивающегося по спирали сюжета фильма, а также список ответов на вопросы, на которые фильм не отвечает напрямую.(Если вы хотите перейти к вопросам и ответам, нажмите здесь.) В некоторой степени это означает реконфигурацию структуры фильма, поскольку Нолан распределяет информацию небольшими кусками, втискивая в каждую сцену беспорядочные линии экспозиции, как будто он пытается подключить черновик. Там, где время откровения не имеет решающего значения для продвижения сюжета, мы объединили эти разъяснительные забавы в более сытные блюда.
Во многих случаях это означает раскрытие информации задолго до того, как фильм дойдет до объяснения того, что он означает, поэтому, если вы не видели фильм и не хотите, чтобы он был испорчен, вам захочется прекратить читать сейчас.
Серьезно. Опасно, Уилл Робинсон. Вот спойлеры.
Все еще здесь? Затем погрузитесь. Если есть вопросы, которые мы оставили без ответа, опубликуйте их в цепочке писем, и мы постараемся ответить, обновив раздел вопросов и ответов с любыми вопиющими упущениями. Теперь закройте глаза, лягте и позвольте себе мечтать.
* * *
Экран залит грохотом волн. Дом Кобб (Леонардо Ди Каприо) просыпается в прибое лицом вниз. Он видит двух детей, играющих в пене, но прежде чем он успевает окликнуть их, он чувствует, как к его спине прижимается автомат.Его проводят на японскую виллу, окруженную вооруженными людьми, затем в комнату с элегантно обшитыми панелями стенами, освещенными рядами крошечных фонарей, свисающих с потолка. В рабочей одежде и трехдневной щетине Кобб выглядит как сбежавший заключенный, и он с жадностью копается в тарелке с едой, сжимая ложку в кулаке.
В дальнем конце стола стоит пожилой японец – невероятно старый, его лицо покрыто морщинами. Это Сайто (Кен Ватанабе), японский бизнесмен, который скоро наймет Кобба и его команду похитителей мечты, хотя он спрятан под слоями латекса.Он спрашивает, пришел ли Кобб убить его. Кобб напоминает ему кого-то, по его словам, «человека, которого я встретил в полузабытом сне».
Кобб, теперь изящно одетый в вечернюю одежду, и Сайто намного моложе в той же комнате. Кобб и его помощник Артур (безупречно элегантный Джозеф Гордон-Левитт) рассказывают Сайто о достоинствах подсознательной безопасности. Без этого, говорит Кобб Сайто, его бизнес-конкуренты могут нанять людей, называемых экстракторами, чтобы проникнуть в его разум, пока он спит, и украсть самые тщательно охраняемые коммерческие секреты прямо из его снов.«Самый стойкий паразит – это идея», – говорит Кобб Сайто. «Как только он укоренился в мозгу, искоренить его практически невозможно».
Единственный способ для Сайто защитить себя, говорит Кобб, – это нанять его – лучший экстрактор из всех существующих, и единственный, кто знает столько способов не пускать людей, сколько способов проникнуть внутрь. Для Кобба Однако чтобы выполнять свою работу, Сайто должен делиться всей информацией, которую он хочет сохранить. «Если у вас есть сейф, полный секретов, мне нужно знать, что в этом сейфе», – говорит Кобб.
Пока Сайто обдумывает это, Кобб и Артур выходят наружу. По земле раздается необъяснимый грохот.
Мрачная двухкомнатная квартира в юго-восточной Азии. Мужчины устраивают беспорядки на улицах, бросая коктейли Молотова, которые взрываются потоками пламени. Кобб, Артур и Сайто спят в разных частях комнаты, подключенные к небольшому металлическому футляру серией внутривенных трубок. За ними наблюдает четвертый мужчина, обильно потный. Это Нэш (Лукас Хаас).Не привыкай видеть его поблизости.
Вернувшись на виллу, Кобб пробирается к Мэлу (Марион Котийяр). В свое время мы узнаем, что она – воплощение его покойной жены, товарища-экстрактора. Но пока что она просто элегантно одетая роковая женщина, с которой у него явно есть история. Она смотрит через край палубы, на скалу и прибой внизу и спрашивает: «Если я прыгну, я выживу?»
Вернувшись внутрь, Кобб и Мал обмениваются парой слов. “Дети скучают по мне?” она спрашивает.Но Кобб занимается бизнесом. Он привязывает веревку к ножке стула Мэла и спускается в окно, но как только он делает первый шаг в пустое пространство, в которое он падает, теперь уже пустой стул скользит по полу. Очевидно, ей не нравится играть роль балласта.
Кобб падает с уровня, прорезает окно и крадется в затемненную виллу, надевая глушитель на свой пистолет. Он бросает двух охранников, каждый по одному выстрелу, ловя их падающие тела, чтобы они не упали на пол.Вернувшись в комнату, где мы впервые встретили Сайто, он отодвигает панель и открывает скрытый сейф. Он вытаскивает манильский конверт.
К сожалению, Сайто ловит его, и он не один. Входит Мал, приставив пистолет к виску Артура. Сайто раскрывает то, что знал все это время: они все спят, и это сон. Если это так, по словам Кобба, то угроза Мэла – пустая, поскольку выстрел в Артура просто разбудит его. Это правда, признает Мал, но только если она его убьет. Она объясняет, что нельзя умереть во сне, но можно почувствовать боль, потому что «боль находится в уме.”Она демонстрирует это, стреляя Артуру в ногу.
Драка. Кобб хватает пистолет и стреляет Артуру в голову, убивая его. В квартире Артур просыпается и идет проверить Сайто. Тем временем мир виллы начинает рушиться; это была мечта Артура, и без него весь ад вырвется наружу. Когда стены начинают проваливаться, Кобб вскрывает конверт и торопливо просматривает документ внутри, замечая, что большие блоки текста были затемнены. Наверху Сайто открывает глаза и хватает пистолет, спрятанный под подушкой, и натягивает Артура, прежде чем тот успевает добраться до него.Быстро соображая, Нэш опрокидывает кресло Кобба назад, так что его спящее тело падает в ожидающую ванну, наполненную водой. В вилле струи бьют из стен, стремительно растущий поток быстро поглощает Кобба. Он просыпается.
В квартире, которая, как выясняется, принадлежит Сайто, люди Кобба держат его под прицелом, пока неистовая толпа снаружи приближается. Они пытаются силой получить то, что им не удалось, обманом, но когда Сайто падает на пол, он понимает, что что-то не так.Текстура ковра не такая, какой он ее помнит, что наводит его на мысль, что он все еще находится во сне, а вилла была сном во сне. Сайто предполагает, что это его сон, и поэтому он все контролирует, но когда следующий взрыв сотрясает квартиру, мы поднимаемся на следующий уровень, где голова спящего Нэша трясется от движения сверхскоростного поезда. Это его мечта.
Пора просыпаться. Молодой человек надевает наушники на Нэша и нажимает кнопку воспроизведения. «Je ne regrette rien» Эдит Пиаф наполняет воздух, эхом проникая в мир грез, где Кобб и его компания.понять, что пора идти. Они открывают глаза в купе поезда, оставляя Сайто спать. Кобб объявляет, что выходит на следующей остановке. «Я не люблю поезда», – говорит он.
Хорошо оборудованный гостиничный номер. Кобб вращает небольшой металлический волчок, наблюдая, как он постепенно замедляется и останавливается. Это его тотем, способ отличить мечту от реальности – трюк, которому он научился у Мэла. Во сне волчок никогда не перестает вращаться, поэтому он знает, что на данный момент он дома свободен. Он звонит своим детям, которые спрашивают: «Папа, когда ты вернешься домой?» У него нет ответа.Он беглец, не может вернуться в США или увидеться с детьми лицом к лицу.
У команды из трех человек запланирована встреча, но Нэш опаздывает. Неважно. Кобб и Артур направляются на крышу отеля, где их ждет сюрприз: еще более потный и нервный Нэш делит вертолет с Сайто. Cobol Engineering, компания, которая наняла их для извлечения информации из головы Сайто, очевидно, не любит неудач; Нэш опасался за свою жизнь и пытался продать своих партнеров.Люди Сайто уводят борющегося Нэша на свидание с Cobol Engineering.
Когда Нэш ушел, Сайто делает Коббу предложение. Вместо того, чтобы извлекать информацию из головы соперника, он хочет, чтобы Кобб оставил что-то позади: идею, настолько тщательно замаскированную, что цель никогда не поймет, откуда она взялась. Одним словом, начало. В частности, ему нужен Роберт Фишер-младший (Киллиан Мерфи), сын его крупнейшего конкурента по бизнесу, Мориса Фишера (Пит Постлтуэйт), чтобы разрушить империю своего отца, как только больной старик уйдет.(Сайто на словах заявляет, что его мотивы антимонополистичны, поскольку без изменения курса FischerCo. Скоро будет контролировать все мировые поставки энергии. Но в основном он просто хочет затруднить соперника, чтобы он мог оставаться в бизнесе. В ответ Сайто очистит имя Кобба одним телефонным звонком, который так любят делать влиятельные люди в кино.
Кобб колеблется, но Сайто настаивает: «Ты хочешь совершить прыжок веры или стать стариком, полным сожаления, ожидающим смерти в одиночестве?» Кобб не может упустить возможность увидеть своих детей.Однако сначала им нужен новый архитектор, который заменит Нэша. Архитекторы проектируют миры снов, мечтатели мечтают о них, а субъект (то есть цель) заполняет остальное своим подсознанием. Если архитектор строит крепость или хранилище банка, подсознание субъекта автоматически заполняет его всеми секретами, которые он ценит больше всего, а это значит, что сновидцы точно знают, где их найти.
Кобб когда-то был архитектором, но он больше не может творить и даже мечтать. Мал следует за ним, куда бы он ни пошел, сея хаос в сне и ее обитателях, и, поскольку она знает то, что знает он, он не может сам создавать сны или даже знать, как они созданы.Остальная часть команды Кобба знает схему лабиринта, что дает им преимущество в проекциях объекта: безмолвные гуманоидные фигуры, которые действуют как подсознательные антитела. Чем более странным или более угрожающим становится сон, тем быстрее они осознают присутствие посторонней сущности и тем жестче их реакция.
Пора Мстителям собраться. Во-первых, архитектор. Кобб направляется в Париж в поисках рекомендации от своего отца и наставника Майлза (Майкл Кейн). Майлз не одобряет использование своего сына своим учением, но он признает точку зрения Кобба о том, что «после того, что случилось», внелегальная сфера была единственным местом, где он мог заниматься своим делом.
Майлз знакомит Кобба со своей звездной ученицей Ариадной (Эллен Пейдж). На крыше Кобб подвергает ее испытанию: за две минуты спроектируйте лабиринт, на решение которого у него уйдет одна минута. Ее первые две попытки провалились, но третья, состоящая из концентрических кругов, справилась со своей задачей. Затем они в кафе на улицах Парижа. Кобб излагает детали построения сновидения и предлагает простой способ определить, во сне она или нет. Поскольку сны всегда начинаются в medias res, если вы можете вспомнить, как вы попали туда, где вы находитесь, вы находитесь в реальном мире.Она может вспомнить, как они попали в кафе? Конечно, я имею в виду, подожди минутку – мы сейчас во сне? Мы такие, и чтобы доказать это, Кобб взрывает кучу всякой всячины. Фруктовые прилавки взрываются, булыжники разлетаются в порошок, окна кафе разбиваются и разбиваются о них. Они просыпаются в мастерской команды снов, на заброшенном складе, усеянном остатками печатного станка.
Снова во сне, только на этот раз это Ариадна, а не Кобб. Детали выглядят одинаково, но она контролирует архитектуру.Она дает ему шанс, складывая улицы Парижа пополам, так что крыши зданий соприкасаются над их головами. – Хорошая штука, – говорит Кобб, но будьте осторожны: такое показное маневрирование обязательно привлечет внимание проекций и заставит их атаковать ее.
Ариадна создает пару огромных зеркальных дверей, обращенных друг к другу так, что они бесконечно отражают друг друга, а затем разрушает их своим разумом. Они идут по Сене, и Кобб узнает знакомый пейзаж. Он видит видение себя и Мэла, прижимающихся друг к другу на берегу реки.Он предупреждает Ариадну: никогда не копируйте реальные места или настоящие воспоминания, чтобы не упустить из виду границу между реальностью и сном. Но уже поздно. Проекции подсознания Кобба набрасываются на нее, и Мал, владеющий ножом, рассекает толпу и пронзает ее сердце. Они просыпаются.
Кобб направляется в Кению, чтобы забрать следующего члена команды, но есть еще один урок, который нужно усвоить. В своем сне Артур использует лестницу Пенроуза, чтобы показать Ариадне, как скрыть границы мечты, которую она строит.С правильной точки зрения (и, что более важно, с широкоугольным объективом, сжимающим глубину резкости), четырехсторонняя лестница кажется бесконечно поднимающейся или спускающейся, но выглядит иначе, и вы можете видеть, что они резко обрезаются. Он называет это «парадоксальной архитектурой».
В Момбасе Кобб встречает Имса (Том Харди), который подделывает документы в реальном мире и свою личность во сне. У Имса есть свои мысли о начале. По его словам, это не невозможно, «просто чертовски сложно». Хитрость заключается в том, чтобы свести идею, которую вы хотите посадить, к ее простейшему и интуитивному ядру.Таким образом, идея может пустить корни и развиваться естественным путем, так что к тому времени, когда она воплотится в жизнь, ее иностранное происхождение будет невозможно различить. Подсознание реагирует на эмоции, а не на разум, поэтому вам нужно избавиться от любых намеков на политику или расчет. В случае с Фишером это означает перевод желания распустить бизнес-империю его отца в более примитивные, эдиповы термины. Положительные эмоции важнее отрицательных, самоопределение важнее разрушения.
Имс указывает на одного из головорезов Cobol Engineering, наблюдающего из бара.Кобб выпрыгивает из окна, и люди Кобола преследуют его по запутанным улицам города. “Тебе сейчас не снятся сны, не так ли?” – насмехается один, ударяя кулаком по челюсти Кобба. Кобб протискивается через узкую щель между зданиями, почти слишком маленькую, чтобы он мог пройти через нее, и находит Сайто, ждущего на заднем сиденье машины с открытой дверью. Они уезжают, чтобы забрать последнего члена команды.
Юсуф (Дилип Рао) – химик, ответственный за формулировку соединений, которые позволяют соединяться разумам, а также успокаивающих средств, которые заставляют сновидцев мечтать.Кобб говорит ему, что им нужно пройти три уровня, чтобы идея укоренилась: мечта в мечте во сне. «Невозможно», – говорит Юсуф, но все же интригует. Сайто объявляет, что тоже придет. В команде до шести человек.
Прежде чем они уйдут, Юсуф отодвигает занавеску и показывает им сновидческий эквивалент опиумного логова. Более десятка человек лежат на раскладушках, трубочки идут от их рук до потолка. Они наркоманы: без машины они могут спать, но не могут мечтать.Или, скорее, говорит иссохший помощник Юсуфа, «они приходят, чтобы проснуться. Сон – их реальность. Кто мы такие, чтобы говорить иначе?»
Кобб цепляется, и мы вступаем в его сны. Мелькают образы: яростная вибрация железнодорожных шипов при приближении поезда; они с Малом прижались головами к поручням. Он просыпается.
Вернувшись в мастерскую, они разбивают идею Фишера на три части, по одной для каждого уровня мечты. На первом уровне: «Я не пойду по стопам отца.«Во-вторых,« Я создам что-то для себя ». А на самом глубоком уровне:« Мой отец не хочет, чтобы я был им ». Ариадна будет строить каждый уровень, чтобы он соответствовал желаемой цели.« Я делаю это. нижний уровень – больница, чтобы Фишер привел своего отца », – говорит она. Юсуф объясняет, что они будут слишком сильны седативными, чтобы проснуться естественным путем, поэтому им придется использовать« пинок », искусственно стимулируя ощущение падения, которое просыпается. вы из сна. Он хитро разработал успокаивающее, чтобы оно не мешало работе внутреннего уха, позволяя внезапной капле проникнуть через слои сна.Они будут использовать музыкальную реплику – снова Эдит Пиаф – для синхронизации отдельных ударов на каждом уровне.
Чтобы получить доступ к подсознанию Фишера, Имсу необходимо замаскироваться под знакомую фигуру, чтобы он нашел свой путь к встрече с Браунингом (Том Беренджер), правой рукой Мориса Фишера и крестным отцом Роберта Фишера. Браунинг открывает дверь в своем кабинете, за которой видна больничная палата. Морис Фишер прикован к постели и бессвязен, почти не в сознании. Его сын размышляет о трудностях их отношений.Браунинг указывает на фотографию у постели отца, на которой они оба были в более счастливые времена; молодой Фишер радостно дует на вертушку, а его отец восхищенно наблюдает за ним. Фишер возражает. Он поместил фото туда; он сомневается, что его отец вообще знает о его присутствии.
В мастерской Ариадне становится интересно узнать об «экспериментах», которые Кобб проводит, когда никого нет рядом. Она погружается в сон Кобба и видит, что он тихо разговаривает с Мэлом, который напоминает ему о его обещании, что они всегда будут вместе.Мал видит, что Ариадна наблюдает за ним, и сразу становится враждебно настроенным. Кобб, сердитый и немного напуганный, толкает Ариадну в ожидающий лифт, в том числе с воротами в стиле гармошки, через которые можно видеть проходящие этажи. Он нажимает на кнопку двенадцатого этажа. Ворота открываются на пляж, как в первой сцене, только на этот раз к двум детям присоединяется их мать, Мал. Ариадна понимает: это не сны. Это воспоминания. Кобб намеренно воссоздает свои воспоминания о Мал, чтобы сохранить ей жизнь в своем подсознании.Разве он не сказал специально этого не делать? Он сделал. Разве это не опасно? Это. Но он не может их отпустить. Он ведет ее вниз с нескольких этажей, в свою квартиру, на память о том, когда он в последний раз видел своих детей. Он наблюдает за ними через окно, играющими во дворе, их лица отвернулись от него. Он хочет позвать, но не может, потому что он этого не сделал. Там мужчина сжимает билет на самолет. Он должен уйти сейчас же. Женский голос зовет детей с французским акцентом, и они убегают.
Ариадна потрясена. Кобб подвергает всю команду опасностям, таящимся в его подсознании, не позволяя никому из них подвергаться риску. Ей нужно знать, с чем они столкнулись, поэтому она бежит к лифту и закрывает ворота, прежде чем Кобб сможет добраться до нее. Она нажимает кнопку цокольного этажа. Спускаясь вниз, она видит другой уровень: ее волосы развеваются назад, как проносящийся мимо поезд. Затем она оказывается внизу, в гостиничном номере, заваленном сломанной мебелью. Ее ступня хрустит о битое стекло, посылая в воздух пронзительную ноту.Мэл тут же, территориальный и угрожающий. Она поднимает зазубренные остатки бокала с вином и приближается к Ариадне, ее жестокие намерения очевидны. Появляется Кобб и втаскивает Ариадну в лифт, как раз вовремя закрывая ворота. Когда они поднимаются, Мал дико кричит, а затем пристально смотрит на них ледяным взглядом.
Они просыпаются. Ариадна читает Коббу акт о массовых беспорядках. Архитекторы обычно не соглашаются на работу, но она настаивает, чтобы кто-нибудь из них знал, что происходит в голове Кобба. Если это не она, хорошо, но тогда Коббу нужно сказать Артуру.Это улажено. Она уходит.
Умер Морис Фишер, что дает прекрасную возможность проникнуть в сознание Фишера. Пришло время для каперсов. Команда садится на борт 747, направляющегося из Сиднея в Лос-Анджелес. Сайто удобно купил авиакомпанию, так что им принадлежат все места в салоне Первого класса, за исключением того, на котором сидит Фишер. 10-часовой перелет должен дать им достаточно времени, тем более что количество времени увеличивается каждый раз, когда они выпадают. уровень в мире грез. Минуты становятся часами, днями становятся годами.
Кобб подливает успокоительное в стакан с водой Фишера, и он выходит. Они подключаются к машине мечты и уходят. Чтобы не усложнять ситуацию, с этого момента мы будем распутывать различные нити мечты, а не резать их туда-сюда, как в фильме. Итак:
Уровень 1: Городские улицы
Команда материализуется на улицах современного города. Проливной дождь; Юсуф, которому это снится, забыл опорожнить мочевой пузырь.Они угоняют такси и забирают Фишера, направляя на него пистолет, когда он возражает против дополнительных пассажиров. Кобб подбирает Ариадну во второй машине, но не успела она войти, как их чуть не сбил локомотив, мчащийся посреди улицы. Это определенно не входило в планы Ариадны. Подсознание Кобба вышло из-под контроля
Мысли Фишера движутся к защите, на этот раз с оружием. Он обучен ментальной безопасности, поэтому его прогнозы военизированы. Ой.Завязывается перестрелка и автомобильная погоня. Они убегают, но Сайто ранен. Нет проблем, говорит Имс; мы просто убьем его, и он проснется. Кобб останавливает его. Он объясняет, что они слишком сильно под действием успокоительных, чтобы проснуться. Если они умрут в этом сне, их разум окажется в подвешенном состоянии, в «несформированном пространстве сновидений», из которого они, возможно, никогда не вернутся. Единственный способ выбраться – это закончить работу: пройти три уровня в глубину и проехать весь путь обратно на поверхность. Боль Сайто будет меньше, чем дальше они пойдут, но он будет приближаться к смерти, пока они не завершат свою миссию.
Разногласия в рядах, но план прогрессирует. Имс превращается в Браунинга и начинает кричать от притворной боли. Его бросают в камеру с Фишером в капюшоне, как если бы он был пленником. Фишер не понимает, почему они не просят денег. Он застрахован от похищения, так что никаких проблем. Браунинг говорит, что они просят код от сейфа его отца, который содержит альтернативную версию завещания старика, разделяющего бизнес на составные части.Фишер не может представить, чтобы его отец разрушал все, что он построил всю свою жизнь, и он не знает ни одного сейфа. «Подумайте больше, – говорит Браунинг. Это должно быть что-то, что знает Фишер, даже если он не знает, что знает это. Возможно, это эмоционально резонирующая последовательность чисел, что-то особенное для отца и сына? Фишер рисует бланк. Их похитители в масках входят и обнажают ружья. Если вы не можете придумать комбинацию, просто произнесите первые числа, которые придут в голову. Фишер съеживается и подчиняется: 528491.
Тяжело вооруженное подсознание Фишера приближается. Пора спускаться на уровень ниже. Команда забирается в кузов фургона и цепляется за машину. Юсуф садится за руль; он будет оставаться на этом уровне и избегать проекций, ожидая подходящего момента, чтобы нанести удар. Мы идем вниз.
Уровень 2: Отель
Учитывая неожиданную устойчивость психической безопасности Фишера, Кобб выбирает рискованный гамбит. Он предупредит Фишера о том, что тот находится во сне, и повернет против него свою собственную защиту.Он находит Фишера в баре отеля, сбивая симпатичную блондинку, которая на прощанье пишет свой номер телефона на салфетке, и указывает на внезапные ливни и странные сдвиги силы тяжести, вызванные креном фургона на один уровень выше. «Подумай, и ты запомнишь», – говорит он Фишеру: «Вас похитили. Они привезли Браунинга. Его пытали – или он был? Ты видел это? Боже мой, Фишер понимает: это все дело рук Браунинга. Они сейчас в его сне.
Фактически, мы находимся во сне Артура, что имеет смысл, поскольку полированный интерьер отеля является подходящим аналогом его безупречно сшитого гардероба.Он и Ариадна направляются в комнату 491, прямо под комнатой 528, и он начинает подбрасывать заряды взрывчатки к потолку. Это даст толчок, который Артур вызовет, когда услышит неукротимую трель Пиаф.
Кобб стреляет в двух охранников психического здоровья Фишера. Он говорит, что Браунинг все еще охотится за тобой. Нам нужно его найти. Давайте посмотрим на номер телефона, который дала вам блондинка: 528-491. Это должно означать что-то во сне. Поскольку мы находимся в отеле, давайте попробуем номера комнат.
Кобб и Фишер направляются в комнату 528 и ждут возвращения Браунинга.На этот раз это не замаскированный Имс, а мысленная проекция Фишера на Браунинга, который воплощает растущие подозрения Фишера в отношении него. Входит Браунинг и подавляет его. «Мы должны сделать с ним то, что он пытался сделать с вами», – говорит Кобб Фишеру. Нам нужно погрузиться в его мечты. Они подцепляют Фишера к машине, нокаутируют его, а затем остальная команда следует за ним – не в мечту Браунинга, а в мечту Имса.
Пока остальные спят, Артур сдерживает охрану Фишера. Когда Юсуф сталкивается с помехой на первом уровне, фургон скатывается с насыпи, а отель катится вместе с ним.Пока Артур борется с вооруженным человеком, они перемещаются от пола к стене к потолку и обратно к полу, приспосабливаясь к тому, что их мир поворачивается против часовой стрелки. Артур делает выстрел, и вооруженный человек падает замертво.
Есть еще одна проблема. На один уровень выше фургон врезается в перила моста – сигнал к удару. Но другие не вернулись снизу, и, когда фургон находится в свободном падении, нет силы тяжести, чтобы заставить их упасть. Невесомый Артур собирает тела других и связывает их резиновыми трубками.Он спускает их по коридору в лифт, использует один кирпич взрывчатки, чтобы перерезать поддерживающие тросы, второй прикрепляет к днищу машины и ждет его реплики.
Уровень 3: Ледяная станция Fischer
Бетонная крепость на заснеженном склоне горы. Самые тщательно охраняемые эмоции Фишера лежат внутри, но попасть внутрь будет сложно, а времени мало. Столкновение фургона вызывает лавину, которая сбрасывает Имса и Сайто с горы, но они выживают.Кобб думает быстро. Они пропустили запланированный удар, но будет еще один, когда фургон упадет в воду. Это означает секунды на первом уровне, несколько минут на Артуре и меньше часа здесь.
У них есть время, но не так много – недостаточно, чтобы пройти через лабиринт, даже с дорожной картой. Кобб говорит, что должен быть короткий путь. Есть, говорит Ариадна, но я не могу вам сказать, что это такое; если ты знаешь, Мэл знает. – Нет времени об этом беспокоиться, – говорит он. Она говорит Имсу: есть вентиляционный канал, который проходит через лабиринт и ведет прямо к центру.
Через прицел винтовки Кобба они видят, как Фишер входит в крепость, а затем Мал падает с потолка с пистолетом в руке. Палец Кобба на спусковом крючке, но он колеблется, и тогда уже слишком поздно. Мал убивает Фишера, а затем Кобб убивает ее. Вот и все, – говорит Кобб. Его разум ушел, и мы закончили. Но у Ариадны есть мозговая волна: мы можем последовать за ним в неопределенность и вернуть его. В больнице есть дефибриллятор, поэтому все, что нужно сделать Имсу и Сайто, – это оживить его за мгновение до удара, который на этом уровне является достаточно большим взрывом, чтобы разрушить крепость.Сайто близок к смерти, но у него достаточно сил, чтобы сдерживать охранников, пока Имс закладывает заряды. Кобб и Ариадна снова спускаются не в сон, а в подвешенное состояние.
Уровень 4: Лимбо
Это «неконструктивное» пространство оказывается достаточно застроенным, хотя и в лучшие времена. Кобб и Ариадна прибывают на берег, окруженный разрушающимися небоскребами. Кобб бывал здесь раньше с Мэл. Они вместе построили мир из своих воспоминаний. Он и Ариадна проходят мимо многоквартирных домов и загородных домов, расположенных бок о бок и снятых на разных этапах совместной жизни Мэла и Кобба.Один особенно обветшалый фасад, покрытый грязью, с покосившимися ставнями, – это дом, в котором вырос Мал. Именно здесь Кобб узнал, что начало возможно. После того, как он и Мал провели 50 лет в подвешенном состоянии, он начал беспокоиться о том, что они никогда не вернутся к реальности – что Мал сознательно забыл о существовании такой вещи. Поэтому он заложил в ее сознание идею, оставив ее бесконечно вращающийся тотем, чтобы она могла ее найти. Они покончили с собой вместе, уткнувшись головами в железнодорожные пути, но даже когда они вернулись в реальный мир, Мэл не могла избавиться от мысли, что ее мир не реален.Им пришлось убить себя еще раз, чтобы избежать последнего слоя сна.
Итак, она устроила ловушку. В день их годовщины Кобб приезжает в их обычный гостиничный номер и обнаруживает, что он разгромлен. Он смотрит и видит Мэл, сидящую в окне напротив, ее ноги болтаются в пустоте. Она говорит ему, что это единственный способ, и она облегчила ему задачу. Она написала их адвокату письмо, в котором говорилось, что Кобб угрожал ей, поэтому ее самоубийство будет выглядеть как убийство. Его единственный выбор – сделать решительный шаг вместе с ней, чтобы они были объединены смертью.Она падает, и Кобб кричит, но не следует за ней.
В подвешенном состоянии Кобб и Ариадна ищут последнее место, где жили Мал и Кобб. Вот где она будет, – рассуждает он, – и воспользуется Фишером как наживкой. Конечно же, Мал сидит спокойно в своей бывшей столовой.
Наверху Имс возвращает Фишера к жизни, что превращается в электрические разряды, трескающиеся по небу неопределенности. Осталось всего несколько минут. Кобб заключает сделку: он останется, если Мал скажет ему, где находится Фишер.Ариадна кричит о своем несогласии, но сделка заключена. Фишер на балконе, связанный и с кляпом во рту. Ариадна развязывает его.
В крепости Фишер вводит комбинацию 528941 в массивную дверь хранилища, открывающуюся и открывающую больничную палату его отца. Старик снова умирает. «Разочарован», – бормочет он. «Я знаю», – отвечает Фишер. «Вы были разочарованы, что я не мог быть вами». Его отец возражает, его глаза полны беспокойства, что ему не хватает сил ответить. «Нет», – говорит он. “Я был разочарован твоей попыткой.«Он умирает. Фишер вводит комбинацию в сейф у постели отца, который открывается, чтобы показать завещание, о котором ему рассказал Браунинг, и что-то еще на полке внизу. Фишер игнорирует завещание и вытаскивает вертушку, точно так же, как в фотография, которую он поместил рядом с отцом. Это простая, эмоциональная истина, лежащая в основе идеи: любовь отца к нему.
В подвешенном состоянии Ариадна сбрасывает Фишера с балкона и следует за ним, надеясь, что удар их тел о землю даст необходимый удар.Кобб остается, но не ради Мэла. Он понял, что должен отпустить ее память, а вместе с ней и свою вину за ее смерть. В его памяти снова всплывают их дети, играющие с отвернутыми головами. Она предлагает ему увидеть их лица, но он закрывает глаза. Он хочет видеть их в реальном мире, а не здесь. Он и Мал проводили время вместе, и они состарились в мире снов. Это время прошло. Тем не менее, Мал остается, потому что он правильно догадывается, что Сайто к этому моменту умрет, и ему нужно восстановить свое сознание из неопределенности, как он сделал это с Фишером.
На первом уровне фургон врезается в воду. На втором этапе Артур приводит в действие взрывчатку, и лифт взрывает шахту, сбрасывая невесомые тела на пол. На третьем Имс взрывает заряды, и крепость разносится вдребезги. А на четвертом Ариадна и Фишер упали на землю. Все просыпаются на первом уровне сна, кроме Кобба и Сайто. Фишер вылезает из реки и садится рядом с Браунингом (снова Имс). «Наконец-то он понял», – говорит он.Его отец хочет, чтобы он был самим собой.
Вот мы и вошли. Кобб приезжает на японскую виллу, морщинистый старик приветствует его. “Вы пришли убить меня?” он спрашивает. Нет, говорит Кобб. Я пришел напомнить вам кое-что, что вы когда-то знали: ваш мир нереален.
Снова в самолет, который приземляется в Лос-Анджелесе. Глаза Кобба открываются, и он оглядывается, чтобы увидеть остальных, только что проснувшихся: Фишера, Артура, Ариадну. Сайто выглядит слабым, но быстро хватает телефон.
На иммиграционной службе агент нервничает, просматривает паспорт Кобба, но проходит мимо. По пути он проходит мимо остальных, одного за другим, и обнаруживает, что его ждет его отец.
В последний раз вернулся в старую квартиру Кобба и Мэла. Дети, которые сейчас постарше, играют, как в его снах, их лица все еще закрыты. Кобб вынимает верх из кармана и раскручивает на обеденном столе, затем идет им навстречу. Они поворачиваются, и мы видим их лица.Наконец-то они воссоединились. Камера перемещается от воссоединения обратно к столу, где все еще вращается столешница. Он крутится и крутится, почти незаметно покачиваясь. Он начинает болтать и подпрыгивать, словно в любой момент может упасть, а затем …
Чернота. Кредиты. Вот и все.
*********
Что?
Сделайте глубокий вдох. Подумайте об этом.
Не говорите мне, что это был сон.
Мы можем вернуться к этому через минуту?
Серьезно?
Серьезно. Сразу скажу, что если бы Нолан хотел дать определенный ответ, он, несомненно, сделал бы это, и тот факт, что он этого не сделал, более важен, чем любой вывод, к которому вы могли бы прийти.
Неважно. Вы, наверное, думаете, что Тони Сопрано тоже жив.
Вообще-то … неважно. Давайте двигаться дальше.
Кстати о претенциозности: Ариадна? Действительно?
Тот факт, что Нолан назвал свой самый выдающийся женский персонаж в честь гречанки, которая вывела Тесея из критского лабиринта, является хорошим признаком того, что Нолана не слишком интересовали тонкости.Скажем так: «Mal» (произносится как омоним «moll») по-французски означает «плохой». Этот удар, который вы чувствуете, – это удар молотка по черепу.
Менее очевидным является происхождение фамилии Имса – дань уважения американским дизайнерам Чарльзу и Рэю Имзам. Хотя их, вероятно, больше всего помнят за их культовый дизайн мебели, Чарльз начинал как архитектор, и пара вместе сняла более сотни короткометражных фильмов. Один из их самых важных фильмов, «Силы десяти», структурирован как одиночный, экспоненциально ускоряющийся откат пары на одеяле для пикника через слои земной атмосферы в бескрайний космос.Как и Нолан, Имс были художниками, которые выражали себя в индустриальном контексте – многие из их фильмов, иногда приписываемых «офису Чарльза и Рэя Имса», были сняты для IBM – и, как и фильм голливудского режиссера, их фильмы. работайте со сбалансированным художественным выражением с практическими проблемами. Нолан не был первым, кто сравнил режиссеров кино с архитекторами, которые задумывают и проектируют массивные конструкции, но оставляют большую часть фактического здания другим. (Название Cobol Engineering может быть завуалированной ссылкой на работодателя Имса; IBM была одной из компаний, которые помогли сформулировать один из самых ранних языков программирования: COBOL.)
Имя Кобба не слишком резонансное, но имеет особое значение в творчестве Нолана. Персонаж по имени Кобб был ключевой фигурой в первом полнометражном фильме Нолана «Следом», профессиональный вор, склонный к описанию своих жертв по их имуществу. Параллели невелики, но это еще одно свидетельство того, что фильм Нолана основан на самом искусстве кинопроизводства.
Вот вопрос: все, что происходит с телом сновидца, переводится в мир сновидений, верно?
Право.Поезд трясет головой Нэша, что приводит к взрывам Молотова во сне. Лицо Артура залито водой, и внезапно хлынул ливень.
Так почему же, когда фургон переходит в свободное падение и мечта Уровня 2 становится невесомой, это не относится к каждому последующему уровню? Если тело Имса парит в космосе, почему в мире снежной крепости существует гравитация?
Фильм на это не отвечает. Но когда Сайто застрелен на Уровне 1, Кобб говорит, что его боль будет уменьшаться каждый раз, когда они углубятся в сон, что означает, что одни стимулы легче проникают через барьеры между сновидениями, чем другие.Даже на глубине трех уровней Имс все еще чувствует, как фургон ударился о перила, потому что это удар, специально разработанный для того, чтобы эхом отозваться на всю глубину. Более прагматичный ответ заключается в том, что, хотя иметь одну мечту о невесомости – изящно сложно, иметь три – довольно скучно.
Какое значение имеет число 528491?
Нет. В этом-то и дело. Когда Артур говорит Фишеру выкрикивать первые числа, которые приходят ему в голову, он фактически просит его создать смысл из воздуха.В любом случае такая комбинация – отвлекающий маневр, просто способ заставить Фишера и фальшивого Браунинга говорить о том, что находится в сейфе, и внушить мысль, что отец Фишера хочет, чтобы он разрушил свою империю. Конечно, даже если числа изначально бессмысленны, они приобретают смысл, когда Фишеру говорят, что они важны. Его подсознание придумывает причину, по которой они имеют значение. Все еще не понимаете? Посмотри на это!
Практически невозможно отследить, кто и когда думает.Это имеет значение?
Нолан признает, что за этим непросто следовать: прямо перед тем, как сновидящие направляются на уровень 3, раздраженная Ариадна спрашивает: «Подождите, в чье подсознание мы входим?» Но как только вы знаете, на что смотреть или, что более важно, прислушиваться, все подсказки на месте.
Начальная сцена – это сон Артура (вилла) внутри сна Нэша (квартира). Учебные упражнения следуют аналогичной схеме: сначала учитель (Кобб в кафе; Артур на лестнице Пенроуза), затем Ариадна в ее собственной версии той же среды.
Основная миссия – это мечта Имса (снежный форт) внутри мечты Артура (отель) внутри мечты Юсуфа (город). Лимбо, по-видимому, находится в подвешенном состоянии; он никому не принадлежит, хотя Кобб может претендовать на права скваттеров.
Один относительно простой способ сохранить ясность состоит в том, что человек, мечтающий о нем, остается позади, чтобы следить за этим местом. Юсуф ведет фургон; Артур сражается с охранником в отеле; Имс устанавливает заряды взрывчатки. Это просто вопрос удобства или мечты ограничиваются одной штукой? Можете ли вы заснуть в собственном сне? Невозможно узнать, но это важный вопрос.
«Начало» действительно очень походило на «Остров проклятых».
Было, не так ли? Леонардо Ди Каприо в образе человека с мертвой женой, который не может отличить реальность от фантазии. Вы даже можете провести параллели с «Титаником», фильмом о буквально и переносном «отпускании» прошлой любви. Либо Ди Каприо знает, каких персонажей он хорошо играет, либо у него есть некоторые повторяющиеся проблемы, которые нужно решить – возможно, и то, и другое.
Вообще-то вроде фильмов много.
Нолан сказал интервьюеру, что Inception «бессовестен … в своем грабеже кинематографической истории», что является еще одним способом сказать, что он крадет все, что не прибито. Его основную историю можно проследить до почти бесконечного количества фильмов об ограблениях, от «Рифифи» до «Итальянской работы» и «Миссия невыполнима». Будь то метакомментарий о том, в какой степени фильмы завладели нашими мечтами, или просто ленивое доверие к заезженным образцам – это подбрасывание.
Точнее, последовательность, в которой Гордон-Левитт и его противник перемещаются от пола к стене, к потолку и обратно, в значительной степени зависит от числа «Ты весь мир для меня» из «Королевской свадьбы», в которой Фред Астер танцует свою обходить все четыре стороны комнаты.Более чем полвека спустя эпизод «Начало» был снят с использованием той же базовой технологии, при которой комната и камера вращаются одновременно, создавая иллюзию смещения гравитации.
Стилистически Нолан позаимствовал зеркальный зал у «Гражданина Кейна», а огромная, отполированная до блеска больничная палата, которую Фишер находит за дверью хранилища, безошибочно напоминает конец романа Стэнли Кубрика «2001: Космическая одиссея».
Другие визуальные ориентиры включают M.К. Эшер, литография которого «Восхождение и спуск» является одним из самых известных изображений лестницы Пенроуза, и британский художник Фрэнсис Бэкон, одна из работ которого висит на стене виллы мечты Сайто.
То, что это не очень похоже на сон.
Достаточно верно. Некоторые из самых резких критических замечаний по поводу «Начало» исходят от тех, кто обвиняет его в фальсификации природы снов, предательстве традиционных сюрреалистов от Луиса Бунюэля до Терри Гиллиама – что было бы, если бы оно попыталось присоединиться к нему.Но «Начало» – это не фильм о мечтах. Скажем еще раз:
«Начало». Не является. О мечтах. Во всяком случае, не настоящие. Сны, в которых происходит большая часть фильма, – это искусственные конструкции, рациональные, прямолинейные симулякры, предназначенные для достижения определенных целей. Сновидящие обладают ясным сознанием и обладают сознательной властью над ландшафтом, а это означает, что непостоянная логика сновидений никогда не имеет возможности заявить о себе.
Удобно ли, что миры, которые строят мечтатели, так сильно напоминают пейзаж из фильма о Джеймсе Бонде? Хорошо обязательно.Warner Bros. не собирается тратить 200 миллионов долларов на Нолана, чтобы он снял какой-нибудь художественный фильм. Но не просто коммерческий расчет диктует целеустремленность того, что «Начало» называет мечтами.
Итак, если дело не в снах, то в чем же дело?
Рад, что вы спросили. Критик Гленн Кенни утверждал, что «Начало» – это действительно фильм о видеоиграх, который, безусловно, является источником вдохновения для некоторых из его более крутых боевиков. Но для меня это имеет наибольший смысл как фильм об общей мечте о фильмах, о тех наполовину созданных, наполовину воображаемых мирах, которые всегда являются совместным творчеством режиссера и ее аудитории.
Обратите внимание на совет Кобба Ариадне рисовать с натуры, не копируя ее, который может стать предупреждением для начинающего сценариста, который слишком буквально замужем, чтобы «писать то, что знаешь». Или представление о том, что для того, чтобы зародившаяся идея укоренилась в сознании Фишера, ее нужно вырезать до ее эмоциональной основы, того, как актер будет обосновывать свою игру, укореняя ее в самых элементарных потребностях своего персонажа. Имс использует слово «катарсис», чтобы описать желаемый результат начала, термин, чья драматическая история восходит к Аристотелю.
Параллельные путешествия Кобба и Фишера включают примирение со своим прошлым, примирение с ним, но также и освобождение от него. Если вы читаете «Начало» как аналог кинопроизводства, то путешествие Фишера представляет художника, вырывающегося из-под влияния своих творческих предков, разобравшего их и построившего что-то новое из их составных частей, а «Кобб» представляет создателя, освобождающегося от оков. своего собственного опыта, обретая способность включать в себя части своей личной истории, не будучи им определенным.
Сохраните это, колледж.
Следующий вопрос.
Хорошо, хватит ждать. Все это было мечтой или нет?
Вот почему это важно. Если вы не можете заснуть в собственном сне, то то, что кажется реальным миром в конце фильма, на самом деле должно быть реальностью. Мы видим, как Кобб дважды видит свои сны: сначала в опиумном логове Юсуфа, а затем в мастерской, когда Ариадна пробирается в его сны. Если же, с другой стороны, Нолан оставляет только одного мечтателя на каждом уровне, чтобы мы не слишком запутались, то жюри все равно отсутствует.Он намеренно играет с нашим восприятием, повторяя ключевые фразы, такие как «прыжок веры» на всех уровнях реальности, и снимая полет Кобба по улицам Момбасы с высоты птичьего полета, из-за чего город выглядит как лабиринт – точно так же, как и его команда производит в мечтах.
Вот почему это не имеет значения. Последний выстрел направлен не в Кобба. Он направлен на нас. Кобб не смотрит на вершину. Он раскручивает его и оставляет позади. Если это сон, он не хочет знать. Решение о том, обретет ли он наконец счастье или он просто раз и навсегда отступил в свои воспоминания, остается за нами.Нолан строит структуру, но оставляет нас, чтобы заполнить детали, точно так же, как испытуемые разрабатывают скелетную архитектуру сновидцев. Мы не можем делиться мечтами в реальной жизни, но фильмы приближают нас. Они рассказывают нам историю или ее отрывок, но персонажи продолжают жить в наших головах после того, как загорелся свет. Что будет дальше, зависит от нас.
Сэм Адамс пишет для Los Angeles Times, Philadelphia Inquirer, The Onion A.V. Club и газета Philadelphia City Paper. Следуйте за ним в Twitter по телефону SamuelAAdams или в его блоге Breaking the Line .
Начальных теорий: два ключевых момента и мысли других | Сканеры
Хорошо, это архитектурно спроектированные мечты, которые структурированы как уровни видеоигры 1990-х годов, поэтому этот мир намеренно построен из очевидных метафор (секреты хранятся в хранилищах!) И населен персонажами, которые являются шифровальщиками. Но как интересно на это смотреть? По мне не очень. (Это та же проблема, с которой столкнулся Дэвид Кроненберг в своем фильме 1999 года о видеоигре / виртуальной реальности «eXistenZ»: как сделать захватывающий фильм в рамках ограниченных повествовательных возможностей иммерсивной игры?)
Как писал Стивен Бун. о травме персонажа Леонардо Ди Каприо: «Воспоминания Кобба о его потерянной любви и разрушенной семье – это те самые стоковые изображения, которые вы найдете в новом бумажнике: симпатичная жена гуляет по солнечному пляжу; очаровательные дети резвятся на заднем дворе, волосы подсвечены с помощью Miller Time. светиться.«Это правда: Нолан не разработал стенографию, необходимую для создания персонажей, которые регистрируются как личности в контексте его загадок. Стивен Спилберг («Челюсти», «Близкие контакты третьего рода», «Инопланетянин», «Отчет меньшинства», «ИИ: искусственный интеллект»), Джеймс Кэмерон («Терминатор», «Пришельцы», «Бездна») и другие – и все же я нашел все эти названия не только захватывающими, но и эмоционально привлекательными.Вспомните историю авианосца Индианаполис в «Челюстях», сцену с картофельным пюре за обеденным столом в «CE3K», битву Больших Плохих Мам за маленькую девочку в «Чужих», отчаянные попытки реанимировать отчужденного бывшего Эда Харриса ( Мэри Элизабет Мастрантонио) в «Бездне» … Эти и многие другие фильмы предоставляют убедительные доказательства того, что зрелищные фильмы также могут вызывать острые ощущения, напряжение и эмоциональную вовлеченность.
Возвращаясь к обсуждению механики фильма, пара связанных заметок (со спойлерами) о двух ключевых образах в фильме:
1) Последняя воля и завещание, которое превращается в детскую вертушку. Якобы «начало» названия фильма, этот образ выделяется как сказочный трансформирующий момент. Что примечательно в этом, как отмечает Бун, так это то, что «вы будете поражены, но не поворотом сюжета, а тем фактом, что он проявляется, Боже мой, ВИЗУАЛЬНО через простой вставной снимок и красивый крупный план [ Киллиан] Смиренное, измученное лицо Мерфи струится настоящими слезами “. До этого момента Нолан тратит так много времени на объяснение и повторение вещей в диалогах, что он, кажется, забывает, что самый мощный и эффективный способ передать информацию в фильме – это просто показать ее .Даже этот момент почти испорчен, потому что он настроен слишком усиленно, показывая нам детскую фотографию с вертушкой (взятая / адаптированная из фотографии Дороти Валенс ее пропавшего сына и его отца в «Голубом бархате») столько раз, что мы знаем это должно окупиться. Тем не менее, в некоторой степени, это самая трогательная вещь на картине.
Advanced Guide to Inception v3 on Cloud TPU | Google Cloud
В этом документе обсуждаются аспекты начальной модели и то, как
они объединяются, чтобы модель эффективно работала в Cloud TPU.Это расширенный вид руководства по запуску Inception v3 на
Облачный ТПУ. Конкретные изменения модели, которые привели к значительным
доработки обсуждаются более подробно. Этот документ дополняет
Учебное пособие по Inception v3.
Inception v3 Тренировочные прогоны TPU соответствуют кривым точности, полученным с помощью аналогичных заданий графического процессора.
конфигурация. Модель успешно обучена на v2-8, v2-128,
и конфигурации v2-512. Модель достигла точности более 78,1%.
примерно в 170 эпох по каждой из них.
Примеры кода, показанные в этом документе, предназначены для иллюстрации,
общая картина того, что происходит на самом деле.
Рабочий код можно найти на GitHub.
Введение
Inception v3 – широко используемая модель распознавания изображений, которая
достичь точности более 78,1% в наборе данных ImageNet. Модель – это
кульминация многих идей, разработанных несколькими исследователями на протяжении многих лет. Это
основан на оригинальной статье:
«Переосмысление начальной архитектуры компьютерного зрения»
пользователя Szegedy, et.al.
Сама модель состоит из симметричных и асимметричных строительных блоков,
включая свертки, среднее объединение, максимальное объединение, конкатенации, отсевы и
полностью связанные слои. Батчнорм широко используется в модели и
применяется к входам активации. Убыток рассчитывается через Softmax.
Схема высокого уровня модели показана ниже:
Начальная модель README
есть дополнительная информация об архитектуре Inception.
Оценщик API
Предупреждение: TPUEstimator поддерживается только Tensorflow 1.Икс. Если вы пишете
модель с Tensorflow 2.x, используйте вместо этого Keras.
Версия Inception v3 для TPU написана с использованием
TPUEstimator,
API, предназначенный для облегчения разработки, чтобы вы могли сосредоточиться на моделях
сами, а не на деталях лежащего в основе оборудования. API делает
большая часть низкоуровневой гранжевой работы, необходимой для запуска моделей на TPU позади
сцены, автоматизируя общие функции, такие как сохранение и восстановление
контрольно-пропускные пункты.
API-интерфейс оценщика обеспечивает разделение модели и входной части кода.Вы должны определить функции model_fn и input_fn , соответствующие
определение модели и этапы конвейера ввода / предварительной обработки TensorFlow
график соответственно. Ниже приведен образец структуры этих функций:
def model_fn (функции, метки, режим, параметры):
…
вернуть tpu_estimator.TPUEstimatorSpec (mode = mode, loss = loss, train_op = train_op)
def input_fn (параметры):
def парсер (serialized_example):
…
возврат изображения, метка
…
изображения, метки = набор данных.make_one_shot_iterator (). get_next ()
вернуть изображения, ярлыки
API предоставляет две ключевые функции: train () и Assessment () , используемый для
тренировать и оценивать соответственно. Обычно они вызываются где-то в главном
функция. Пример этого показан ниже:
Прежде чем модель можно будет использовать для распознавания изображений, ее необходимо обучить.Это
обычно осуществляется путем обучения с учителем с использованием большого набора помеченных изображений.
Хотя Inception v3 можно обучить из множества различных помеченных наборов изображений,
ImageNet – это обычная
набор данных по выбору.
ImageNet имеет более десяти миллионов URL-адресов помеченных изображений. Об
миллионы изображений также имеют ограничивающие рамки, указывающие более точную
расположение помеченных объектов.
Для этой модели набор данных ImageNet состоит из 1331167 изображений, которые
разделены на наборы данных для обучения и оценки, содержащие 1 281 167 и 50 000
изображения соответственно.
Наборы данных для обучения и оценки намеренно хранятся отдельно. Только
изображения из набора обучающих данных используются для обучения модели и только изображения
из набора оценочных данных используются для оценки точности модели.
Модель ожидает, что изображения будут храниться как TFRecords. Для преобразования
изображения из необработанных файлов JPEG в TFRecords, используйте пакет с открытым исходным кодом
скрипт: download_and_preprocess_imagenet.sh .
Скрипт должен создать серию файлов (как для обучения, так и для
валидация) формы:
$ {DATA_DIR} / поезд-00000-из-01024
$ {DATA_DIR} / поезд-00001-из-01024
...
$ {DATA_DIR} / train-01023-of-01024
а также
$ {DATA_DIR} / validation-00000-of-00128
S {DATA_DIR} / validation-00001-of-00128
...
$ {DATA_DIR} / validation-00127-of-00128
, где DATA_DIR – это местоположение набора, например:
DATA_DIR = $ HOME / imagenet-data
Раздел “Начало работы” в начальной модели README
включает подробные инструкции по созданию и запуску этого сценария.
Входной трубопровод
Каждое устройство Cloud TPU имеет 8 ядер и подключено к хосту (ЦП).Срезы большего размера имеют несколько хостов. Другие более крупные конфигурации взаимодействуют с
несколько хостов. Например, v2-256 взаимодействует с 16 хостами.
Хосты получают данные из файловой системы или локальной памяти, делают любые данные
требуется предварительная обработка, а затем передача предварительно обработанных данных в ядра TPU.
Мы рассматриваем эти три фазы обработки данных, выполняемые хостом индивидуально.
и обращайтесь к этапам как: 1) Хранение , 2) Предварительная обработка , 3) Передача .А
изображение высокого уровня схемы показано на рисунке ниже
Для обеспечения хорошей производительности система должна быть сбалансирована. Какое бы количество
время, затрачиваемое центральным процессором на получение изображений, их декодирование и выполнение соответствующих
предварительной обработки, в идеале должно быть немного меньше или примерно столько же, сколько затрачено
ТПУ делает расчеты. Если центральному процессору требуется больше времени, чем TPU, чтобы
завершите три этапа обработки данных, затем выполнение будет хостом
граница. (Примечание: поскольку TPU работают очень быстро, это может быть неизбежно для некоторых
очень простые модели.) Оба случая показаны на диаграмме ниже.
Текущая реализация Inception v3 находится на грани
ограниченный вводом. Изображения должны быть извлечены из файловой системы, декодированы,
а затем предварительно обработаны. Существуют различные типы этапов предварительной обработки.
доступны, от умеренного до сложного. Если использовать самый сложный из
этапов предварительной обработки, большое количество дорогостоящих операций, выполняемых
этап предварительной обработки подтолкнет систему к краю и конвейер обучения
будет связана с предварительной обработкой.Однако нет необходимости прибегать к такому уровню
сложности для достижения точности более 78,1%, и вместо этого мы используем
умеренно сложный этап предварительной обработки, который изменяет шкалу в другом
направление и сохраняет привязку модели к TPU. Более подробно это обсуждается в
следующий раздел.
В модели используется
tf.data.Dataset в
обрабатывать все потребности, связанные с входным конвейером. См. Руководство по производительности наборов данных
для получения дополнительной информации о том, как оптимизировать входные конвейеры с помощью tf.data API.
Хотя можно просто
определить функцию и передать ее в API-интерфейс оценщика, в случае Inception,
create class InputPipeline инкапсулирует все необходимые функции и
вместо этого определите метод __call__ .
API-интерфейс оценщика упрощает использование этого класса. Просто нужно
передать его в параметр input_fn функций train () и Assessment () , как
показано в примере фрагмента кода ниже:
Основные элементы класса InputPipeline показаны во фрагменте кода ниже,
где мы выделили три фазы разными цветами. Метод __call__ создает набор данных, используя tf.data.Dataset , а затем создает ряд
вызовов API для использования встроенных функций предварительной выборки, чередования и перемешивания
возможности набора данных.
класс InputPipeline (объект):
def __init __ (self, is_training):
self.is_training = is_training
def __call __ (self, params):
# Место хранения
file_pattern = os.path.join (
FLAGS.data_dir, 'train- *' если self.is_training else 'validation- *')
набор данных = tf.data.Dataset.list_files (шаблон_файла)
если self.is_training и FLAGS.initial_shuffle_buffer_size> 0:
набор данных = набор данных.shuffle (
buffer_size = FLAGS.initial_shuffle_buffer_size)
если сам.is_training:
набор данных = набор данных.repeat ()
def prefetch_dataset (имя файла):
набор данных = tf.data.TFRecordDataset (
имя файла, buffer_size = FLAGS.prefetch_dataset_buffer_size)
вернуть набор данных
набор данных = набор данных.применить (
tf.contrib.data.parallel_interleave (
prefetch_dataset,
cycle_length = FLAGS.num_files_infeed,
коряво = правда))
если FLAGS.followup_shuffle_buffer_size> 0:
набор данных = набор данных.shuffle (
buffer_size = ФЛАГИ.followup_shuffle_buffer_size)
# Предварительная обработка
набор данных = набор данных. карта (
self.dataset_parser,
num_parallel_calls = FLAGS.num_parallel_calls)
набор данных = набор данных.prefetch (размер_пакета)
набор данных = набор данных.применить (
tf.contrib.data.batch_and_drop_remainder (размер_пакета))
dataset = dataset.prefetch (2) # Prefetch перекрывает in-feed с обучением
изображения, метки = набор данных.make_one_shot_iterator (). get_next ()
# Передача
вернуть изображения, ярлыки
Хранилище Раздел начинается с создания набора данных и включает
чтение TFRecords из хранилища (с использованием tf.data.TFRecordDataset ). Особый
при необходимости используются целевые функции repeat () и shuffle () . Функция tf.contrib.data.parallel_interleave () отображает функцию prefetch_dataset () на входе для создания вложенных наборов данных и выводит их элементы
чередующиеся. Он получает элементы из cycle_length вложенных наборов данных параллельно,
что увеличивает пропускную способность. Аргумент небрежного ослабляет требование, что
выходы производятся в детерминированном порядке и позволяют реализовать
чтобы пропустить вложенные наборы данных, элементы которых недоступны, когда
просил.
Секция предварительной обработки вызывает dataset.map (синтаксический анализатор) , который, в свою очередь, вызывает
функция парсера, в которой изображения предварительно обрабатываются. Детали
стадии предварительной обработки обсуждаются в следующем разделе.
Раздел передачи (в конце функции) включает строку возвратных изображений, этикеток. TPUEstimator принимает возвращенные значения и
автоматически передает их на устройство.
На рисунке ниже показан пример трассировки производительности Cloud TPU для
Начало v3.Время вычисления TPU без учета всех загрузочных киосков в настоящее время составляет
на 815 мсек или около того.
Хост Хранилище также видно на графике и показано ниже:
Хост предварительной обработки , который включает в себя декодирование изображения и серию изображений
Функции искажения показаны ниже:
Host / TPU transfer можно увидеть здесь:
Стадия предварительной обработки
Предварительная обработка изображений является важной частью системы и может сильно повлиять на
максимальная точность, которую модель достигает во время обучения.Минимум,
изображения необходимо декодировать и изменить размер, чтобы они соответствовали модели. На случай, если
Изначально изображения должны быть размером 299x299x3 пикселей.
Однако простого декодирования и изменения размера будет недостаточно для получения хорошей точности.
Набор обучающих данных ImageNet содержит 1 281 167 изображений. Один проход по набору
тренировочных образов называется эпохой. Во время обучения модель будет
требуется несколько проходов по набору обучающих данных для улучшения его изображения
возможности распознавания. В случае Inception v3 количество эпох
необходимо будет где-то в диапазоне от 140 до 200 в зависимости от глобального
размер партии.
Чрезвычайно полезно постоянно изменять изображения перед их загрузкой.
к модели и сделать это таким образом, чтобы конкретное изображение было слегка
разные в каждую эпоху. Как лучше сделать эту предварительную обработку изображений – это столько
искусство как наука. С одной стороны, хорошо продуманный этап предварительной обработки может
значительно расширить возможности распознавания модели. С другой тоже
простой этап предварительной обработки может создать по максимуму искусственный потолок
точность, которую та же модель может достичь во время обучения.
Inception v3 предлагает различные варианты этапа предварительной обработки, начиная от
от относительно простого и недорогого в вычислительном отношении до довольно сложного и
вычислительно дорого. В файлах можно найти два разных варианта. vgg_preprocessing.py и inception_preprocessing.py .
Файл vgg_preprocessing.py определяет использованный этап предварительной обработки
успешно обучить resnet с точностью 75%, но дает неоптимальные
результаты при применении к Inception v3.
Файл inception_preprocessing.py содержит этап предварительной обработки с несколькими параметрами
с разным уровнем сложности, который успешно использовался для тренировок
Inception v3 с точностью 78,1-78,5% при работе на TPU. Этот
В разделе обсуждается конвейер предварительной обработки.
Предварительная обработка различается в зависимости от того, проходит ли модель обучение или
используется для вывода / оценки.
Во время оценки предварительная обработка довольно проста: обрезать центральную
область изображения, а затем измените ее размер до размера по умолчанию 299×299.Фрагмент
код, который делает это, показан ниже:
def preprocess_for_eval (изображение, высота, ширина, central_fraction = 0,875):
с tf.name_scope (scope, 'eval_image', [изображение, высота, ширина]):
если image.dtype! = tf.float32:
изображение = tf.image.convert_image_dtype (изображение, dtype = tf.float32)
image = tf.image.central_crop (изображение, central_fraction = central_fraction)
изображение = tf.expand_dims (изображение, 0)
image = tf.image.resize_bilinear (изображение, [высота, ширина], align_corners = False)
изображение = tf.сжать (изображение, [0])
image = tf.subtract (изображение, 0,5)
изображение = tf.multiply (изображение, 2.0)
image.set_shape ([высота, ширина, 3])
вернуть изображение
Во время обучения кадрирование происходит случайным образом: ограничивающая рамка выбирается случайным образом.
для выбора области изображения, размер которой затем будет изменен. Изображение с измененным размером затем
возможно перевернутое и его цвета искажены. Фрагмент кода, который делает
это показано ниже:
Функция distort_color отвечает за изменение цвета. Предлагает быстрый режим
где изменяются только яркость и насыщенность. Полный режим изменяет
яркость, насыщенность и оттенок и случайным образом изменяет порядок, в котором эти
модифицироваться. Фрагмент кода этой функции показан ниже:
Функция distort_color требует больших вычислительных ресурсов, отчасти из-за
нелинейный
Преобразования RGB в HSV и HSV в RGB, необходимые для
доступ к оттенку
и насыщенность. Эти преобразования требуются как в быстром, так и в полном режиме, и хотя
быстрый режим менее затратный с точки зрения вычислений, он по-прежнему подталкивает модель к
Регион, привязанный к вычислительным ресурсам ЦП, если он включен.
В качестве альтернативы в список добавлена новая функция distort_color_fast список
вариантов. Эта функция отображает изображение из RGB в YCrCb, используя
Преобразование JPEG
схема и случайным образом изменяет яркость и цветность Cr / Cb перед отображением обратно
в RGB. Функция показана во фрагменте кода ниже:
Вот пример изображения, прошедшего предварительную обработку. Случайно выбранный регион
изображения были выбраны, а цвета изменены с помощью distort_color_fast функция.
Функция distort_color_fast вычислительно эффективна и по-прежнему позволяет
обучение, чтобы быть привязанным ко времени выполнения TPU. К тому же дает хорошие результаты и
успешно использовался для обучения модели Inception v3 более чем 78.1%
точность при размерах партий от 1024 до 16384. Он используется как
выбор по умолчанию для Inception v3.
Оптимизатор
Текущая модель демонстрирует три разновидности оптимизаторов: SGD, импульс и
RMSProp.
Стохастический градиентный спуск (SGD) – самый простой вид обновления: веса
подталкиваются в направлении отрицательного градиента. Несмотря на свою простоту, хорошо
результаты все еще могут быть получены на некоторых моделях. Динамику обновлений можно
написано как:
$$ w_ {k + 1} = w_k- \ alpha∇f (w_k) $$
Momentum – популярный оптимизатор, который часто приводит к более быстрой сходимости, чем
может быть получен SGD.Этот оптимизатор обновляет веса так же, как SGD, но также
добавляет компонент в направлении предыдущего обновления. Динамика
обновления предоставлены:
Последний член – это компонент в направлении предыдущего обновления. Это
показано графически на рисунке ниже:
Для импульса \ ({\ beta} \) мы используем обычно используемое значение 0.{-2}}} ∇f (w_k) $$
Для Inception v3 тесты показывают, что RMSProp дает наилучшие результаты с точки зрения максимальной
точность и время, чтобы достичь его, с моментом, близким к секунде. Таким образом, RMSprop
установить как оптимизатор по умолчанию. Используются следующие параметры:
распад \ ({\ alpha} \) = 0,9, импульс \ ({\ beta} \) = 0,9 и
\ ({\ epsilon} \) = 1,0.
Фрагмент кода с вариантами оптимизатора показан ниже
При работе на TPU и использовании API-интерфейса оценщика оптимизатор должен быть
завернутый в функцию CrossShardOptimizer для обеспечения синхронизации
среди реплик (вместе с любыми необходимыми перекрестными коммуникациями). Фрагмент
кода, в котором это делается в Inception v3, показано ниже:
Экспоненциальное перемещение
в среднем
(также известное как экспоненциальное сглаживание) - необязательный этап постобработки, который
применяется к обновленным весам и иногда может приводить к заметным
улучшения в производительности.Inception v3 значительно выигрывает от наличия
этот дополнительный шаг. TensorFlow предоставляет функцию
tf.train.ExponentialMovingAverage
который вычисляет ema \ ({\ hat {\ theta}} \) веса \ ({\ theta} \) с использованием
формула:
, где \ ({\ alpha} \) - коэффициент распада (близкий к 1,0). На случай, если
Начало v3,
\ ({\ alpha} \) установлено на 0,995.
Несмотря на то, что это фильтр с бесконечной импульсной характеристикой (БИХ), коэффициент затухания
устанавливает эффективное окно, в котором большая часть энергии (или соответствующих образцов)
проживают, как показано на следующей диаграмме:
Чтобы увидеть это более четко, мы перепишем уравнение фильтра следующим образом:
$$ {\ hat {\ theta} _ {t + T + 1}} = {\ alpha (1- \ alpha)} ({\ theta_ {t + T}} + {\ alpha \ theta_ {t + T- 1}} +.k \) значения убывают с увеличением k , таким образом, эффективно только a
подмножество
образцы будут иметь значительное влияние на \ (\ hat {\ theta} _ {t + T + 1} \). Правило
большого пальца для
в
продолжительность указанного окна составляет:
\ (\ frac {1} {1- \ alpha} \), что соответствует \ ({\ alpha} \) = 200
для = 0,995.
Сначала мы получаем набор обучаемых переменных, а затем используем apply ()
метод
для создания теневых переменных для каждой обученной переменной (и добавления соответствующих операций
чтобы сохранить для них скользящие средние в их теневых копиях).Фрагмент
код, который делает это в Inception v3, показан ниже:
Мы хотели бы использовать переменные ema во время оценки. Для этого мы
определить класс LoadEMAHook , который применяет метод variables_to_restore () к
файл контрольной точки для оценки с использованием имен теневых переменных:
класс LoadEMAHook (tf.train.SessionRunHook):
def __init __ (self, model_dir):
super (LoadEMAHook, сам) .__ init __ ()
self._model_dir = каталог_модели
def begin (self):
ema = tf.train.ExponentialMovingAverage (MOVING_AVERAGE_DECAY)
переменные_to_restore = ema.variables_to_restore ()
self._load_ema = tf.contrib.framework.assign_from_checkpoint_fn (
tf.train.latest_checkpoint (каталог-собственной_модели), variables_to_restore)
def after_create_session (я, сессия, координата):
tf.logging.info ('Перезагрузка EMA ...')
self._load_ema (сессия)
хуков функция передается оценивать () , как показано во фрагменте ниже:
Пакетная нормализация широко используется
метод нормализации входных функций на моделях, который может привести к значительному
сокращение времени сходимости. Это один из самых популярных и полезных
алгоритмические улучшения в машинном обучении за последние годы и используются во всех
широкий спектр моделей, включая Inception v3.
Входные данные активации сначала нормализуются путем вычитания среднего значения партии и деления на
стандартное отклонение партии, но нормализация партии делает больше. К
держать вещи сбалансированными при наличии обратного распространения, два обучаемых
параметры вводятся на каждом уровне. Нормализованные выходы \ ({\ hat {x}} \)
пройти
последующая операция \ ({\ gamma \ hat {x}} + \ beta \), где \ ({\ gamma} \) и
\ ({\ beta} \) - это своего рода стандартное отклонение и среднее значение,
но это узнает сама модель.
Полная система уравнений находится в статье.
и повторяется здесь для удобства:
Ввод : Значения x для мини-пакета: \ (\ Phi = \) {\ ({x_ {1.2_ \ phi} + {\ epsilon}}} \ qquad \ mathbf (нормализация) \]
Нормализация происходит успешно во время обучения, но когда подошло время оценки, мы бы
как модель, чтобы вести себя детерминированным образом: результат классификации
изображения должно зависеть исключительно от входного изображения, а не набора изображений
которые скармливаются модели. 2 \), и они должны быть
представляют статистику популяции изображений.2} \]
В конкретном случае Inception v3 был получен ощутимый коэффициент затухания.
(через настройку гиперпараметров) для использования в графических процессорах. Мы хотели бы использовать это значение на
TPU тоже, но для этого нам нужно внести некоторые коррективы.
Скользящее среднее значение Батчнорма и дисперсия рассчитываются с использованием фильтра пропускания потерь,
каноническое уравнение которого показано ниже (здесь \ ({y_t} \) представляет перемещение
среднее или дисперсия):
В задании 8x1 GPU (синхронного) каждая реплика считывает текущее скользящее среднее и
обновляет его.Обновления являются последовательными в том смысле, что новое перемещение
переменная должна быть сначала записана текущей репликой, прежде чем следующая реплика сможет
прочтите это.
При наличии 8 реплик набор операций для обновления ансамбля следующий. {7-k} } {x_ {t + k}} \]
(2)
В текущей реализации расчета движущегося момента на TPU,
каждый осколок
выполняет вычисления независимо, и межсегментная связь отсутствует.Пакеты распределяются по каждому шарду, и каждый из них обрабатывает 1/8 часть
общее количество пакетов (при 8 шардах).
Хотя каждый осколок совершает движения и вычисляет движущиеся моменты
(то есть среднее значение и дисперсия), обратно передаются только результаты из шарда 0
к центральному процессору. Таким образом, фактически только одна реплика движется.
обновление среднего / дисперсии:
, и это обновление происходит на 1/8 скорости его последовательного аналога.8 \).
Для Inception v3 значение затухания, используемое в графическом процессоре, равно \ ({\ alpha} \) = 0,9997,
что соответствует значению затухания TPU, равному \ ({\ beta} \) = 0,9976.
Адаптация скорости обучения
По мере увеличения размеров пакетов обучение становится все труднее. Другой
продолжают предлагаться методы, позволяющие эффективно обучать большие партии
размеры (см. здесь,
здесь и
вот например).
Один из упомянутых методов: постепенное увеличение скорости обучения, был использован для обучения
модель больше 78.Погрешность 1% для размеров партий от 4096 до
16 384. В случае начальной версии v3 скорость обучения сначала устанавливается примерно на
10% от начальной скорости обучения. Скорость обучения
остается постоянным при этом низком значении для указанного (небольшого) количества
'холодные эпохи', а затем начинается линейное увеличение на заданное число
«эпох разминки», в конце которых пересекается то, что было бы
скорость обучения при использовании обычного экспоненциального спада. Это
проиллюстрировано на следующем рисунке.
Бит кода, который это делает, показан во фрагменте ниже:
с помощью сверточных нейронных сетей Google | Уилла Кёрсена
Архитектура Inception-ResNet-V2
Классификация изображений с использованием предварительно обученных моделей CNN Google Inception
Сверточные нейронные сети - это новейшая техника для распознавания изображений, то есть для идентификации таких объектов, как люди или автомобили. фотографий.Хотя распознавание объектов дается людям естественным образом, его было сложно реализовать с использованием машинных алгоритмов, и до появления сверточных нейронных сетей (начавшееся всерьез с разработкой LeNet-5 в 1998 году) лучший компьютер не мог сравниться с средним ребенком. это обманчиво сложная задача. Недавние успехи в проектировании CNN, особенно более глубокие модели с большим количеством уровней, обеспечиваемые доступностью дешевой вычислительной мощности и усовершенствованных методов, таких как начальные модули и пропускаемые соединения, создали модели, которые конкурируют с человеческой точностью в идентификации объектов.Более того, CNN готовы оказать реальное влияние в различных областях, от беспилотных транспортных средств до медицинской визуализации (область, где компьютеры уже превосходят людей). Однако обучение сверточных нейронных сетей, в частности, реализация метода обратного распространения ошибки, используемого для обновления параметров модели, требует больших вычислительных ресурсов. Чем больше объем обучающих данных (помеченных изображений) и чем глубже сеть, тем больше время обучения. Уменьшение глубины сети или количества обучающих данных не рекомендуется, поскольку производительность любой системы машинного обучения напрямую зависит от количества примеров качественного обучения, а более глубокие сети (до определенного момента) работают лучше.Дополнительные методы повышения производительности, такие как выпадение или пакетная нормализация, также увеличивают время вычислений. Правильное обучение полезной сети распознавания изображений на десяти тысячах помеченных изображений на персональном компьютере может занять месяцы или больше. Более того, разработка правильной архитектуры и выбор оптимальных гиперпараметров требует обучения сети сотни или тысячи раз, а это значит, что нам лучше быть готовыми потратить несколько десятилетий на этот проект, если мы ограничимся ноутбуками.К счастью, Google не только разработал несколько итераций идеальной архитектуры для классификации изображений (в 2014 году GoogLeNet выиграл конкурс Imagenet Large Scale Visual Recognition Challenge, где модели должны идентифицировать 1000 различных классов объектов), но также выпустил модели, полностью обученные на 1,2 миллиона изображений. по 1000 категориям. Это означает, что вместо того, чтобы строить нашу собственную сеть и выдерживать эпоху обучения за эпохой обучения, мы можем использовать предварительно обученную модель Google для выполнения высокоточного распознавания объектов.
Весь код Python для этого проекта был написан в Jupyter Notebook. Полная записная книжка и проект доступны в моем репозитории Github для проектов машинного обучения. Этот проект был адаптирован из тонкого пошагового руководства Google Tensorflow Jupyter Notebook и поддерживался книгой Практическое машинное обучение с Scikit-Learn и Tensorflow , написанной Орелиеном Джероном.
Начальная нейронная сеть
У Google есть несколько моделей нейронных сетей, которые они сделали доступными для использования в TensorFlow.Мы будем использовать две модели: Inception-v3 и Inception-v4.
Базовая начальная CNNArchitecture
Оба они используют начальные модули, которые берут несколько сверточных ядер разного размера и складывают их выходные данные по измерению глубины, чтобы захватывать функции в разных масштабах.
Начальный модуль
Обе сети также заимствуют концепцию остаточной сети с пропускаемыми соединениями, где вход добавляется к выходу, так что модель вынуждена предсказывать остаток, а не саму цель.
Пропустить соединение, обычно используемое в остаточной сети
Используя эту архитектуру, Inception-v4 смог достичь точности 80,2% наивысшей 1 и 95,2% точности 5 на наборе данных Imagenet, или, другими словами, сеть правильно определила объект в изображение 4/5 времени и 19/20 раз правильное предсказание появилось в пяти верхних вероятностях, выведенных моделью. Другие модели, разработанные Google (в частности, Inception-ResNet-v2), достигли немного лучших результатов, но сети Inception-v3 и -v4 по-прежнему находятся на вершине поля.
Получение предварительно обученных моделей
Чтобы получить соответствующие библиотеки Python, перейдите в репозиторий Tenorflow / models на GitHub и загрузите или Git клонируйте репозиторий. Вся работа, которую мы будем делать, должна выполняться из тонкой библиотеки, поэтому перейдите в эту папку и создайте там новый скрипт Python или Jupyter Notebook. Следующим шагом будет загрузка самой последней контрольной точки начальных сетей. Список моделей можно найти на Git Hub tenorflow / models.Чтобы загрузить другую модель, просто замените inception_v3_2016_08_28.tar.gz архитектурой по вашему выбору (может также потребоваться изменение другого кода).
импортировать тензорный поток как tf из наборов данных import dataset_utils import os # Base url TF_MODELS_URL = "http://download.tensorflow.org/models/"# Измените этот путь для другого CNN INCEPTION_V3_URL = TF_MODELS_URL = TF_MODELS_URL = TF_MODELS_URL = TF_MODELS_URL = TF_MODELS_URL. tar.gz " INCEPTION_V4_URL = TF_MODELS_URL +" inception_v4_2016_09_09.tar.gz "# Каталог для сохранения контрольных точек модели MODELS_DIR =" models / cnn "INCEPTION_V3_CKPT_PATH = MODELS_DIR +" /inception_v3.ckpt " INCEPTION_V4_CKPT_PATH = MODELS_DIR +" /inception_v4.ckpt "каталог модели 918, если он не существует#, каталог модели 918 if not tf.gfile.Exists (MODELS_DIR): tf.gfile.MakeDirs (MODELS_DIR)
# Загрузите соответствующую модель, если это еще не было сделано , если не os.path.exists (INCEPTION_V3_CKPT_PATH): dataset_utils.download_tar_and INCEPTION_V3_URL, MODELS_DIR)
, если не os.path.exists (INCEPTION_V4_CKPT_PATH): dataset_utils.download_and_uncompress_tarball (INCEPTION_V4_URL, MODELS_DIR)
Теперь, когда модели загружены, нам нужен способ убедиться, что изображения имеют правильную конфигурацию для сети.Все изображения Imagenet имеют размер 299 пикселей на 299 пикселей (высота x ширина) x 3 цветовых канала (красный-зеленый-синий). Следовательно, любые изображения, которые мы отправляем по сети, должны быть в том же формате. Сети Inception также ожидают, что изображения будут масштабированы между 0 и 1, что означает, что значения пикселей необходимо разделить на 255 (максимальное значение интенсивности для цвета). Хотя это относительно просто, тонкая библиотека, с которой мы работаем, уже имеет встроенную функцию обработки изображений в inception_preprocessing.py скрипт в каталоге предварительной обработки. Эта функция принимает изображение как трехмерный массив значений пикселей и возвращает правильно отформатированный массив для оценки сетью Inception. Он также имеет ряд других возможностей для использования с обучением, таких как смещение или изменение изображения, которые делают сеть инвариантной по отношению к аспектам изображения (например, ориентации), которые не влияют на объект на изображении. Этот метод также можно использовать для увеличения небольшого набора данных, включая копии каждого изображения, которое было сдвинуто, масштабировано или повернуто.Мы передадим is_training = False, чтобы изображение было обработано для оценки, и его размер будет только изменяться.
из предварительной обработки import inception_preprocessing # Это может быть изменено в зависимости от используемой модели и набора данных обучающего образа process_image (image): root_dir = "images /" filename = root_dir + image with open (filename, "rb") как f: image_str = f.read ()
, если image.endswith ('jpg'): raw_image = tf.image.decode_jpeg (image_str, channels = 3) elif image.endwith ('png'): raw_image = tf.image.decode_png (image_str, channels = 3) else: print («Изображение должно быть в формате jpg или png») return
image_size = 299 # Размер изображения ImageNet, разные модели могут иметь разный размер processing_image = inception_preprocessing.preprocess_image (raw_image, image_size, image_size, is_training = False)
с tf.Session () в качестве сессии: sessions.run (tf.global_variables_initializer () raw_image_initializer () = сесс.run ([raw_image, processing_image])
Изображения, которые мы хотим классифицировать, должны быть помещены в новый каталог изображений, расположенный в тонкой папке (или измените root_dir в предыдущем коде). На данный момент мы будем придерживаться изображений jpg и png, хотя другие форматы также могут быть обработаны. Чтобы сгенерировать правильные изображения, мы создаем сеанс TensorFlow для выполнения операций TensorFlow. Мы возвращаем необработанное изображение, чтобы мы могли его построить, а также обработанное изображение в форме [размер_пакета, высота, ширина, цвет_каналы].
Примеры изображений на дисплее
Мы можем загрузить любое изображение, которое захотим, и поместить его в каталог изображений. Однако для того, чтобы сеть могла быть верной, нам потребуются изображения, включенные в набор данных ImageNet. Полный список из 1000 классов можно найти в виде текста здесь. (Когда сеть используется для оценки с is_training = False, у нее будет 1001 класс, потому что она добавляет дополнительную категорию «фон».) Выберите пару изображений и загрузите их в каталог изображений.Лучше всего, если изображения будут сняты крупным планом, а объект будет в центре. Сначала мы можем написать небольшую функцию для построения изображения, используя matplotlib.pyplot и встроенную магическую функцию% matplotlib для отображения графиков в Jupyter Notebook.
В случае этого изображения, поскольку исходный размер был слишком мал, функция предварительной обработки добавляет дополнительные пиксели путем интерполяции между существующими значениями пикселей. Это приводит к нечеткому изображению, которое не должно существенно влиять на производительность CNN.
В основе этого проекта лежит предсказание Картины. Теперь, когда у нас есть несколько изображений (не стесняйтесь собирать столько изображений, сколько хотите. Было бы интересно посмотреть, что CNN предполагает для классов изображений, которые никогда не видели во время обучения.) Мы напишем функцию, которая принимает имя изображение и версия используемой CNN (в настоящее время ограничена архитектурой Inception, либо «V3», либо «V4»), строит необработанное изображение и показывает 10 лучших прогнозов под графиком.
'' ' Функция принимает имя изображения и, при необходимости, сеть, используемую для прогнозов. В настоящее время единственными вариантами для сети являются Inception V3 и Inception V4. Строит необработанное изображение и отображает прогнозы 10 лучших классов. '' 'def pred (image, version =' V3 '): tf.reset_default_graph ()
# Create a для изображений X = tf.placeholder (tf.float32, [None, 299, 299, 3], name = "X")
'' ' функция inception_v3 возвращает логиты и словарь end_points. логитов выводятся из сети перед применением активации softmax ' ''
if version.upper () == 'V3': model_ckpt_path = INCEPTION_V3_CKPT_PATH with slim.arg_scope (inception.inception_v3_arg_scope ()): # Установить количество классов и параметр is_training (начиная с параметра is_training) logits X, num_classes = 1001, is_training = False)
версия elif.upper () == 'V4': model_ckpt_path = INCEPTION_V4_CKPT_PATH with slim.arg_scope (inception.inception_v3_arg_scope ()): # Задайте количество классов и параметр is_training # Logits logits, end_points = num_classes = 1001, is_training = False)
с tf.Session () as sessions: saver .restore (sessions, model_ckpt_path) prediction_values = прогнозы.eval ({X: processing_image})
try: # Добавить индекс к предсказаниям и затем отсортировать по вероятности prediction_values = [(i, prediction) for i, prediction in enumerate (prediction_values [0 ,:])] prediction_values = sorted (prediction_values, key = lambda x: x [1], reverse = True)
# Постройте изображение plot_color_image (raw_image) plt.show () print ("Используя Inception_ {} CNN \ nPrediction: Probability \ n ".format (version)) # Отобразить изображение и прогнозы для i в диапазоне (10): predicted_class = class_names [prediction_values [i] [0]] sizes = prediction_values [i] [1] print ( "{}: {:.2f}% ". Format (предсказанный_класс, вероятность * 100))
# Если прогнозы не совпадают за исключением: print (прогнозы)
Код относительно прост. Мы применяем правильную область действия аргумента и функцию в зависимости от модели (обратите внимание, что нам нужно установить количество классов равным 1001 и is_training = False.) После построения вычислительного графа TensorFlow с помощью функции inception_v3 (или inception_v4) мы создаем сеанс TensorFlow для передачи изображения через сеть.Мы используем заставку, чтобы восстановить веса модели, которые мы скачали ранее. График возвращает логиты, которые представляют собой немасштабированные выходные данные из сети, и вероятности, которые являются результатом передачи логитов через функцию активации softmax. После получения прогнозов мы создаем список кортежей с индексом прогноза и связанной с ним вероятностью. Затем мы сортируем эти кортежи по вероятности и распечатываем имена 10 лучших классов по вероятности в соответствии с сетью.
Результаты прогнозов
Вот несколько типичных результатов.
pred ('bison.jpg', version = 'V3')
Довольно хорошие прогнозы от Inception_v3! Давайте посмотрим, что прогнозирует версия 4:
прогноз ('bison.jpg', version = 'V4')
Приятно видеть, что модели согласуются. Дам модели еще несколько простых картинок.
прогноз ('sombrero.jpg', version = 'V4')
Интересно отметить, что не только CNN сделал правильный прогноз, но и другие потенциальные кандидаты. Второй вариант здесь, по крайней мере, имеет смысл, но некоторые из других кажутся далекими (вероятности очень малы и используются два десятичных знака, округленных до нуля).
прогноз ('tiger-shark.jpg', версия = 'V4')
прогноз ('albatross.jpg', версия = 'V4')
Эти результаты впечатляют. Конечно, все изображения, которые я выбрал, было относительно легко идентифицировать и наглядно отображали интересующий объект - оба условия вряд ли могут быть воспроизведены в реальном мире. В действительности, вещи не остаются на месте, и сцена, вероятно, будет иметь сотни или тысячи различных объектов, которые, возможно, потребуется идентифицировать (и подумать, что мы делаем это постоянно, даже не вспотев).Тем не менее, эта сеть является достойным началом для решения проблемы, и даже с более загруженным изображением мы можем получить точные результаты:
прогноз ('ball.jpg ', версия =' V4 ')
Эта сеть разработана и обучена для идентификации один класс изображений в каждом изображении, задача, для которой он хорошо подходит. Однако, если мы добавим больше элементов в одну картинку, прогнозы начнут рушиться.
pred ('ball_game.jpg ', version =' V4 ')
В этом миксе есть несколько хороших прогнозов, но в целом модель перегружена шумом.Нейронные сети также могут применяться для многозначных классификаций, таких как приведенный выше пример, в котором есть объекты во многих различных классах.
модель также ограничена тем, что она обучена только на 1000 классах. Если изображение не в этих классах, то нам не повезло. Это даст наилучшее предположение, но нам нужно будет обучить его самостоятельно, чтобы расширить возможности.
pred ('giraffe.jpg', version = 'V4')
Что касается сети, то она никогда раньше не видела жирафа, так что такого быть не должно.Тем не менее, если бы мы показали сети множество примеров помеченных жирафов, она скоро научилась бы их идентифицировать.
Дальнейшие действия
В настоящее время мы ограничены 1000 классами, изученными сетью. Если мы хотим расширить диапазон изображений, нам потребуется больше данных. В частности, нам нужны сотни изображений, помеченных одним классом, если мы действительно хотим, чтобы сеть научилась идентифицировать этот объект. Мы можем обсудить это в другом посте, так что сейчас начните собирать или вручную маркировать изображения (или попросите аспиранта сделать это за вас).CNN - это новейшие технологии, но, в конце концов, они полагаются на миллионы изображений, которые были вручную помечены за тысячи человеко-часов работы. К счастью, эти обучающие данные нужно подготовить только один раз, а затем их можно будет использовать повторно. Возможно, мы скоро достигнем точки, когда мы сможем обучать более слабые CNN на изображениях, которые были помечены более сильными сетями, без участия людей (хотя тогда нам, возможно, придется беспокоиться о сверхразумном ИИ, как это обсуждал Ник Бостром). Чтобы обучить модель на наших собственных данных, мы разморозим по крайней мере один слой перед выходными данными (чтобы скорректировать веса модели для наших данных) и добавим новый выходной слой с правильным количеством классов.Есть ряд дополнительных шагов, которые мы можем предпринять с этим примером, например, нарисовать помеченные прямоугольники на изображениях или визуализировать некоторые модели с помощью TensorBoard, что может дать некоторое представление о модели. Эта демонстрация никоим образом не является новаторской, но она демонстрирует фундаментальный принцип программирования DRY: не повторяйтесь. Когда вы хотите создать свою собственную систему распознавания объектов, ваши первые слова не должны быть «с чего начать?» но «кто разработал модель, которую я могу улучшить?» Исходя из этого, не стесняйтесь использовать, распространять, делиться и, самое главное, улучшать этот код!
Воспользуйтесь советом Уоррена Баффета: 5 фондов Vanguard, чтобы купить
Примечание редактора: «Примите совет Баффета: 5 фондов Vanguard для покупки » ранее было опубликовано в ноябре 2020 года.С тех пор он был обновлен, чтобы включить наиболее актуальную доступную информацию.
Vanguard Funds , вероятно, следует поблагодарить Уоррена Баффета.
В письме акционеров Berkshire Hathaway (NYSE: BRK.A , NYSE: BRK.B ) 2014 года Баффет широко упоминал фонды Vanguard. С тех пор он не отступал.
В частности, он рекомендовал вложить оставшиеся его жене деньги: 10% в краткосрочные государственные облигации и 90% в очень дешевый индексный фонд S&P 500 .Не просто индексный фонд, заметьте, но в частности, фонд Vanguard.
Будь то биржевые фонды (ETF) или паевые инвестиционные фонды, Oracle of Omaha считает, что фонды Vanguard - это правильный путь. Имея это в виду, я собрал портфель из двух ETF, двух паевых инвестиционных фондов и пятого wildcard. Полученное портфолио должно подходить жене Баффета - или кому-то еще, если на то пошло.
Индексный фонд Vanguard 500 Admiral Shares (MUTF: VFIAX )
Vanguard Mid-Cap Index Fund Admiral Shares (MUTF: VIMAX )
Краткосрочный казначейский фондовый фонд Vanguard (NASDAQ: VGSH )
Vanguard Consumer Staples ETF (NYSEARCA: VDC )
Vanguard Funds: Индексный фонд Vanguard 500 Admiral Shares (VFIAX)
Источник: Casimiro PT / Shutterstock.com
Распределение : 50% портфеля Результативность за 10 лет: 14,22%
Цель состоит в том, чтобы свести затраты к минимуму, при этом в целом придерживаясь гипотезы Баффета, когда речь идет об инвестициях его жены. Хотя Vanguard Funds действительно предлагает ETF без комиссии, я рекомендую паевой инвестиционный фонд для инвестиций S&P 500.
Индексный фонд Vanguard 500 Admiral Shares взимает всего 0,04% годовых, или 4 доллара на инвестиции в размере 10 000 долларов.
Ваши годовые гонорары составят всего 20 долларов с портфеля на 50 000 долларов. Это сложно превзойти, и Баффет знает это. Крупнейшие активы этого фонда включают Microsoft (NASDAQ: MSFT ), Apple (NASDAQ: AAPL ) и Alphabet (NASDAQ: GOOG , NASDAQ: GOOGL. ). Минимальная инвестиция - 3000 долларов.
Индексный фонд Vanguard средней капитализации Admiral Shares (VIMAX)
Источник: Shutterstock
Распределение: 20% портфеля Результативность за 10 лет: 12.62%
VFIAX довольно хорошо покрывает часть портфеля с большой капитализацией.
В то время как Баффет, возможно, не любит добавлять акции компаний со средней капитализацией, данные свидетельствуют о том, что акции со средней капитализацией превосходили акции компаний с большой капитализацией в течение четырехлетнего периода с 2009 по 2013 год.
Фактически, Джон Хэнкок опубликовал отчет, в котором предостерегает инвесторов от недооценки компаний со средней капитализацией из-за предположения, что фонд с большой капитализацией в сочетании с фондом с малой капитализацией выполнит свою работу.Это просто не так.
Акции со средней капитализацией, как правило, предлагают привлекательное сочетание риска и прибыли. По этой причине я рекомендую Vanguard Mid-Cap Index Fund Admiral Shares, который отслеживает CRSP Mid-Cap Index, индекс, состоящий из акций, которые попадают в верхние 70% -85% инвестиционной рыночной капитализации.
Они достаточно велики, чтобы пережить экономический удар, но достаточно малы, чтобы продолжать расти. При коэффициенте расходов 0,05% эта запись в нашем списке фондов Vanguard обеспечивает вам безопасность и эффективность одновременно.Крупнейшие холдинги включают Idexx Laboratories (NASDAQ: IDXX ), Microchip Technology (NASDAQ: MCHP ) и Chipotle (NYSE: CMG ).
Vanguard FTSE All-World ex-US Small-Cap ETF (VSS)
Источник: Shutterstock
Распределение: 10% портфеля Результативность за 10 лет: 5,3%
Хотя я только что сказал, что акции со средней капитализацией являются ключевой частью любого портфеля и имеют тенденцию превосходить акции с малой капитализацией при меньшем риске, в вашем портфеле всегда есть место для акций с малой капитализацией.
Это особенно верно, когда два предыдущих выбора от Vanguard Funds почти на 100% инвестированы в США и практически не имеют международного воздействия. По этой причине немного любви за пределами Америки имеет смысл.
Я рекомендую использовать Vanguard FTSE All-World ex-US Small-Cap ETF, фонд, который отслеживает динамику индекса FTSE Global Small Cap ex US Index, который включает более 3000 акций в десятках стран. Инвестируя как в развитые, так и в развивающиеся рынки, фонд обеспечивает хорошую доступность некоторым будущим звездам мира при годовом коэффициенте расходов всего 0.11%.
При таких низких комиссиях неудивительно, что в этот ETF инвестировано 9,4 миллиарда долларов.
Краткосрочный казначейский фондовый фонд Vanguard (VGSH)
Источник: Shutterstock
Распределение: 10% портфеля Результаты за 5 лет: 1,67%
Баффет рекомендует, чтобы 10% портфеля его жены было размещено в краткосрочных государственных облигациях. У Vanguard Funds есть ETF, который делает именно это.
Краткосрочный казначейский фондовый фонд Vanguard инвестирует в U.S. государственные облигации со средним сроком погашения от одного до трех лет. Риск по шкале от одного до пяти равен единице - это означает, что этот ETF Vanguard предназначен для консервативных инвесторов, ищущих стабильные цены на акции.
И с коэффициентом расходов 0,05% этот ETF должен дать вам душевное спокойствие для ваших краткосрочных потребностей.
Vanguard Consumer Staples ETF (VDC)
Источник: Shutterstock
Распределение: 10% портфеля Результативность за 10 лет: 11.38%
На этом последнем кусочке головоломки я собираюсь защищаться. Версия S&P 500 для паевого инвестиционного фонда имеет менее 10% инвестиций в основные потребительские товары. Я хочу исправить это, поместив последние 10% в ETF Vanguard Consumer Staples, собрание из 92 наименований, включая Procter & Gamble (NYSE: PG ) и Coca-Cola (NYSE: ).