Онлайн поддержка
Все операторы заняты. Пожалуйста, оставьте свои контакты и ваш вопрос, мы с вами свяжемся!
ВАШЕ ИМЯ
ВАШ EMAIL
СООБЩЕНИЕ
* Пожалуйста, указывайте в сообщении номер вашего заказа (если есть)

Войти в мой кабинет
Регистрация
ГОТОВЫЕ РАБОТЫ / КУРСОВАЯ РАБОТА, РАЗНОЕ

Коллаборативная фильтрация (Collaborative filtering). Коэффициент корреляции Пирсона.

irina_krut2020 456 руб. КУПИТЬ ЭТУ РАБОТУ
Страниц: 38 Заказ написания работы может стоить дешевле
Оригинальность: неизвестно После покупки вы можете повысить уникальность этой работы до 80-100% с помощью сервиса
Размещено: 17.04.2020
Первая часть работы посвящена полному разбору методов коллаборативной фильтрации и коэффициент корреляции Пирсона. В ходе работы над первой частью выявлено, что существующие методы имеют как достоинства, так и недостатки. Одни алгоритмы выигрывают по времени, другие – по потребляемой памяти и точности. Вторая часть работы посвящена реализации программы для вычисления коэффициента корреляции Пирсона. В процессе выполнения работы были сформированы навыки, закрепляющие следующую компетенцию: способность разрабатывать модели и алгоритмы компонентов информационных систем, включая модели структур данных и модели интерфейсов «человек – электронно-вычислительная машина».
Введение

На сегодняшний день одним из подходов разработки рекомендательных систем является использование методов коллаборативной фильтрации (КФ). Коллаборативная фильтрация – класс методов построения рекомендаций (прогнозов) на основе известных предпочтений (оценок) группы пользователей. Основная идея алгоритмов коллаборативной фильтрации заключается в предложении новых элементов для конкретного пользователя на основе предыдущих предпочтениях пользователя или мнения других единомышленников пользователя. Целью курсовой работы является расширение теоретических и практических знаний в области интеллектуального анализа данных. Объектом исследования являлись методы коллаборативной фильтрации. Предметом исследования являлись методы формирования рекомендаций.
Содержание

Содержание 2 Введение 3 1 Коллаборативная фильтрация и Коэффициент корреляции Пирсона. 4 1.1 Понятие коллаборативной фильтрации и описание 4 1.2 Методы коллаборативной фильтрации 5 1.3 Проблемы 28 1.4 Коэффициент корреляции Пирсона 30 2 Разработка программного комплекса 32 2.1 Постановка задачи 32 2.2 Разработка программного средства 32 2.2.1 Листинг программы с комментариями 32 2.2.2 Интерфейс программы 33 2.2.3 Тестирование программы 34 Заключение 35 Список использованных источников 36 Приложение А 38
Список литературы

1. Структуры и алгоритмы обработки данных: Учебное пособие / В.Д. Колдаев. – М.: ИЦ РИОР: НИЦ ИНФРА-М, 2014. – 296 c 2. Статистический анализ данных в MS Excel: Учебное пособие / Козлов А.Ю., Мхитарян В.С., Шишов В.Ф. - М.:НИЦ ИНФРА-М, 2016. - 320с 3. Преобразования сигналов в нелинейных радиотехнических цепях / Яковлев А.Н. - Новосиб.:НГТУ, 2010. - 190 с 4. Понизовкин Д.М. Построение оптимального графа связей в системах коллаборативной фильтрации (рус.) // «Программные системы: теория и приложения» : журнал. — 2011. — № 4(8). — С. 107-114. 5. Сервис в России и за рубежом, 2014, Volume 8, Issue 3-М.:РГУТиС,2014.-142 с.[Электронный ресурс] 6. Алгоритмы и структуры данных: Учебник / Белов В.В., Чистякова В.И. - М.:КУРС, НИЦ ИНФРА-М, 2017. - 240 с Щербинина Ю.В. Книга — текст — коммуникация. Словарь-справочник новейших терминов и понятий / Ю.В. Щербинина. — М. : ФОРУМ : ИНФРА-М, 2017. — 304 с. 7. Теория и практика прогнозирования цен на энергоресурсы : монография / под ред. Ю.Н. Линника, В.Я. Афанасьева, А.С. Казака. — М. : ИНФРА-М, 2016. — 339 с. 8. Илышев, А. М. Общая теория статистики [Электронный ресурс] : Учебник для студентов вузов, обучающихся по специальностям экономики и управления / А. М. Илышев. - М. : ЮНИТИ-ДАНА, 2012. - 535 с 9. Структуры и алгоритмы обработки данных: Учебное пособие / В.Д. Колдаев. - М.: ИЦ РИОР: НИЦ ИНФРА-М, 2014. - 296 с 10. Системы рекомендаций : обзор современных подходов А.Г. Гомзин, А.В.Коршунов 11. Корнилова Т.В. Введение в психологический эксперимент. Учебник для ВУЗов. М.: Изд-во ЧеРо, 2001. 12. Ермолаев О.Ю. Математическая статистика для психологов. М.: Московский психолого-социальный институт: Флинта, 2003. – 366 с. 13. Бондарь А.Г., Статюха Г.А. Планирование эксперимента в химической технологии. Киев: Высшая школа, 1976 – 335 с. 14. Сидоренко Е.В. Методы математической обработки в психологии. Спб.: ООО «Речь», 2000. – 350 с. 15. Адлер Ю.П., Грановский Ю.В., Маркова Е.В. Планирование эксперимента при поиске оптимальных условий. М.: Наука, 1976.–278 с. 16. Арбузова О.В. Разработка и исследование алгоритмов для повышения эффективности интеллектуального анализа web-контента 17. Якобсон А. Унифицированный процесс разработки программного обеспечения : пер. с англ. В. Горбунков / А. Якобсон, Г. Буч, Дж. Рамбо – Спб.: Питер, 2002. – 496 с. 18. А. В. Заболеева-Зотова Латентный семантический анализ: новые решения в Internet / А. В. Заболеева-Зотова, А. Ю. Пастухов, П. В. Сердюков, Н. А. Козлова, С. А. Чернов // Информационные технологии. – 2001. 19. Буч Г. Язык UML. Руководство пользователя : пер. с англ. Н. Мухин / Буч Г. – 2-е изд.– М. : ДМК Пресс, 2006. – 496 с. 20. Фаулер М. Архитектура корпоративных программных приложений : пер. с англ. / М. Фаулер – М. : Вильямc, 2006. – 544 с.
Отрывок из работы

1 КОЛЛАБОРАТИВНАЯ ФИЛЬТРАЦИЯ И КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ ПИРСОНА. 1.1 ПОНЯТИЕ КОЛЛАБОРАТИВНОЙ ФИЛЬТРАЦИИ И ОПИСАНИЕ Коллаборативная фильтрация, совместная фильтрация - это один из методов построения прогнозов (рекомендаций) в рекомендательных системах, использующий известные предпочтения (оценки) группы пользователей для прогнозирования неизвестных предпочтений другого пользователя. Его основное допущение состоит в следующем: те, кто одинаково оценивали какие-либо предметы в прошлом, склонны давать похожие оценки другим предметам и в будущем. Например, с помощью коллаборативной фильтрации музыкальное приложение способно прогнозировать, какая музыка понравится пользователю, имея неполный список его предпочтений (симпатий и антипатий). Прогнозы составляются индивидуально для каждого пользователя, хотя используемая информация собрана от многих участников. Тем самым коллаборативная фильтрация отличается от более простого подхода, дающего усреднённую оценку для каждого объекта интереса, к примеру, базирующуюся на количестве поданных за него голосов. Исследования в данной области активно ведутся и в наше время, что также обуславливается и наличием нерешённых проблем в коллаборативной фильтрации. В век информационного взрыва такие методы создания персонализированных рекомендаций, как коллаборативная фильтрация, очень полезны, поскольку количество объектов даже в одной категории (такой, как фильмы, музыка, книги, новости, веб-сайты) стало настолько большим, что отдельный человек не способен просмотреть их все, чтобы выбрать подходящие. Системы коллаборативной фильтрации обычно применяют двухступенчатую схему: Находят тех, кто разделяет оценочные суждения «активного» (прогнозируемого) пользователя. Используют оценки сходно мыслящих людей, найденных на первом шаге, для вычисления прогноза. Алгоритм, описанный выше, построен относительно пользователей системы. Существует и альтернативный алгоритм, изобретённый Amazon, построенный относительно предметов (продуктов) в системе. Этот алгоритм включает в себя следующие шаги: Строим матрицу, определяющую отношения между парами предметов, для нахождения похожих предметов. Используя построенную матрицу и информацию о пользователе, строим прогнозы его оценок. Для примера, можно посмотреть семейство алгоритмов Slope One Также существует другая форма коллаборативной фильтрации, которая основывается на скрытом наблюдении обычного поведения пользователя (в противоположность явному, который собирает оценки пользователей). В этих системах вы наблюдаете, как поступил данный пользователь, и как — другие (какую музыку они слушали, какие видео посмотрели, какие композиции приобрели), и используете полученные данные, чтобы предсказать поведение пользователя в будущем, или предсказать, как пользователь желал бы поступить при наличии определённой возможности. Эти предсказания должны быть составлены согласно бизнес-логике, так как например, бесполезно предлагать кому-либо купить музыкальный файл, который у него уже имеется. 1.2 МЕТОДЫ КОЛЛАБОРАТИВНОЙ ФИЛЬТРАЦИИ Методы разделяются на три больших группы: • Анамнестические методы • Методы, основанные на модели • Гибридные Анамнестические методы коллаборативной фильтрации Анамнестические алгоритмы используют внешнюю базу данных (БД) или образец БД пользователь – объект для генерации предсказания. Каждый пользователь это часть группы людей со схожими интересами. Путем выявления так называемых соседей для нового пользователя (или активного пользователя) могут быть произведены прогнозы предпочтений новых объектов для нее или для него. Алгоритм, основанный на соседстве – распространенный анамнестический алгоритм, включающий следующие шаги: вычисление сходства или веса ????,?? , который отражает расстояние, корреляцию или вес между двумя пользователями или двумя объектами, i и j; генерация прогнозов для активного пользователя по средневзвешенным всех рейтингов пользователя или объекта на определенном объекте или пользователе или с помощью простого средневзвешенного. Когда задача состоит в том, чтобы составить топ-N рекомендаций, мы должны найти k наиболее похожих пользователей или объектов (ближайших соседей), после вычислить сходство, а затем объединить соседей, чтобы получить топ-N наиболее частых объектов в качестве рекомендаций. Вычисление сходства Вычисление сходства между объектами или пользователями это критически важный шаг в анамнестических алгоритмах КФ. Для алгоритмов по объекту (item-based) основная идея вычисления сходства между объектом i и объектом j заключается сперва в работе с пользователями, которые оценили оба этих объекта, а затем применения вычисления сходства для определения подобия ????.?? между двумя сооцененными объектами или пользователями. Для алгоритмов по пользователю (user-based) сначала вычисляется сходство ????,?? между пользователями u и v, которые оценили схожие объекты. • Сходство по корреляции. В этом случае сходство ????,?? между двумя пользователями u и v или ????.?? между двумя объектами i и j измеряется путем вычисления корреляции Пирсона или других сходных корреляций. Корреляция Пирсона измеряет степень, в которой две переменные линейно связаны друг с другом. Для алгоритма по пользователю корреляция Пирсона между пользователями u и v вычисляется по формуле: где i ? I суммирование по всем объектам, которые оценили оба пользователя u и v; – средняя оценка сооцененных объектов uтым пользователем; ????,?? - оценка iго объекта uтым пользователем. Для алгоритма по объектам обозначим множество пользователей u?U, которые оценили оба объекта, тогда корреляция Пирсона будет: где - средняя оценка iго объекта пользователями. Алгоритмы КФ основанные на корреляции Пирсона это представление алгоритма КФ и широко используется в научно-исследовательском сообществе КФ. Другие меры сходства, основанные на корреляции включают: ограниченную корреляцию Пирсона, это вариация корреляции Пирсона, которая использует среднюю точку вместо среднего рейтинга; корреляция рангов Спирмена, схожа с корреляцией Пирсона, за исключением того, что рейтинги это ранги; ? корреляция Кендалла, аналогична ранговой корреляции Спирмена, но вместо использования самих рангов, использует только относительные ранги для вычисления корреляции. Как правило, число пользователей в вычислении сходства рассматривается как размер окрестности активного пользователя и КФ, основанная на сходстве считается как КФ, основанной на окрестности. • Сходство по косинусной мере. Сходство между двумя документами может быть вычислена рассмотрением каждого документа как вектор последовательностей слов и вычислением косинуса угла, сформированного последовательностью векторов. Формально, если R это матрица пользователь-объект размера m?n, тогда сходство между двумя объектами i и j определяется как косинус n- мерных векторов, соответствующих iому и jому столбцам матрицы R. Косинусная мера сходства между объектами i и j вычисляется по формуле : Для того, чтобы получить желаемое вычисление сходства для n объектов, вычисляется матрица сходства размера n?n. Например, есть вектор ?? = {??1 , ??1 } и вектор ?? = {??2 , ??2 }, тогда вектор косинусного сходства между ?? и ?? будет равен: В реальной ситуации, различные пользователи могут использовать различные шкалы рейтинга, которые вектор косинусного сходства не может принимать во внимание. Для устранения этого недостатка используется скорректированное косинусное сходство, которое работает путем вычитания соответствующего среднего пользователя для каждой сооцененной пары. Скорректированное косинусное сходство выглядит так же как формула корреляции Пирсона. На самом деле, корреляция Пирсона выполняет косинусное сходство с какими-то нормализованными оценками пользователя в соответствии с его собственным оценочным поведением. Следовательно, мы можем получить отрицательное значение при корреляции Пирсона, но не при косинусном сходстве, полагая, что у нас есть шкала оценок n точек. *Вычисление прогнозов и рекомендаций Получение прогнозов или рекомендаций наиболее важный шаг в системах коллаборативной фильтрации. В алгоритме КФ, основанном на окрестности, подмножество ближайших соседей активного пользователя будет выбрано на основе их сходства с ним или с ней, и взвешенная сумма их оценок будет использована для генерации прогнозов для активного пользователя. • Взвешенная сумма оценок других. Для того, чтобы получить прогноз для активного пользователя a на определенном объекте i, мы можем принять взвешенное среднее всех оценок по данному объекту в соответствии со следующей формулой: где и – средняя оценка для пользователя a и пользователя u на всех других оцененных объектах; W??, – вес между пользователями u и a. Суммирование происходит по всем пользователям u?U, которые оценили объект i. • Простое средневзвешенное. Для прогнозирования, основанном на объекте мы можем использовать простое средневзвешенное, чтобы вычислить прогноз оценки ????,?? для пользователя u на объекте i: где суммирование происходит по всем другим оцененным объектам n?N для пользователя u; W??, – вес между объектами i и n ????,?? - рейтинг для пользователя u на объекте n. Топ N рекомендаций Топ N рекомендаций – это набор N топ-оцененных объектов, которые будут представлять интерес для определенного пользователя. Например, если Вы зарегистрированный клиент Amazon, после входа в свой аккаунт, можете рекомендовать список книг (или других продуктов), которые могут представлять Ваш интерес. Техника топ N рекомендаций анализирует матрицу пользователь-объект, чтобы обнаружить отношения между различными пользователями или объектами и использовать их для вычисления рекомендаций. Некоторые модели, такие как модели, основанные на поиске ассоциативных правил, могут быть использованы для построения топ N рекомендаций. • Алгоритмы топ N рекомендаций по объекту. Эти алгоритмы были разработаны для решения проблемы масштабируемости алгоритмов топ N рекомендаций по пользователю. Они сначала вычисляют k наиболее похожих объектов для каждого объекта соответствующего схожести; затем определяют набор C, как кандидатов рекомендуемых объектов, беря объединение наиболее похожих k объектов и удаления каждого из объектов в наборе U, что пользователь уже приобрел. Результирующий набор объектов в C, отсортированный в порядке уменьшения сходства, будет рекомендованным списком. Одна из проблем этого метода состоит в том, что когда совместно распределенный набор объектов отличается от распределения отдельных объектов в наборе, вышеуказанные схемы потенциально могут давать не оптимальные рекомендации. Расширения анамнестических алгоритмов Несколько расширений для анамнестических алгоритмов будут перечислены далее. • Голосование по умолчанию. Во многих коллаборативных фильтрах парное сходство вычисляется только из оценок на пересеченных объектах, которые оценили оба пользователя. Это не будет надежным, когда в наличии слишком мало голосов, чтобы генерировать значения сходства. Кроме того, при сосредоточении внимания на схожих наборах пересечений, пренебрегается глобальное поведение оценок, отражающееся во всей истории оценок пользователя. Эмпирически, предполагается, что некоторые значения голосования по умолчанию для отсутствующих оценок могут улучшить производительность прогнозирования КФ. • Обратная пользовательская частота. Идея обратной пользовательской частоты, применяемой в КФ, заключается в том, что универсально понравившиеся объекты, не столь полезны в определении сходства, как менее общие объекты. Обратная частота может быть определена как: где ???? - число пользователей, которые оценили объект j; ?? – общее число пользователей. Если все оценят объект j, тогда ???? равно 0. Для того, чтобы применить обратную пользовательскую частоту при использовании алгоритма КФ, основанного на векторе сходства, нам необходимо использовать преобразованную оценку, которая является простой первоначальной оценкой умноженной на коэффициент ???? . • Коэффициент усиления. Относится к преобразованию, применяемому к весам, используемым в основе предсказаний КФ. Преобразование подчеркивает высокие веса и опускает низкие веса: где ?? – мощь коэффициента усиления, ?? ? 1 и обычно выбирают ?? = 2.5. Коэффициент усиления снижает уровень шума в данных. Как правило, предпочтительные высокие веса, имеющие маленькие значения, при возведении в степень становятся пренебрежительно малыми. Если вес высок, то он останется высоким, например ????,?? = 0.9, 0.9 2.5 ? 0.8 ; если он низок, то станет незначительным ????,?? = 0.1, 0.1 2.5 ? 0.003. • Алгоритмы КФ увеличения-подстановки. Когда оценочные данные для задач КФ сильно разрежены, возникает проблема сделать точные предсказания, используя КФ, основанную на корреляции Пирсона. После всестороннего изучения использования различных стандартных методик подстановки (в том числе подстановка среднего, подстановка линейной регрессии, подстановка сравнительного среднего предсказания, множественная подстановка Байеса) и машинно-обучаемых классификаторов (включая наивный Байес, SVM, нейронные сети, дерево решений, ленивые Байесовские правила) в качестве исходных для IBCF, они обнаружили, что предложенные алгоритмы IBCF могут в целом выполняться очень эффективно и что IBCF, использующая множественную подстановку Байеса, IBCF-NBM (смесь IBCF, которая использует наивный Байес для более плотных наборов данных и IBCF, использующая подстановку среднего для более разреженных), IBCF, использующая наивный Байес, работают особенно хорошо, опережая алгоритм КФ повышения содержимого (представитель гибридной КФ) и делает это без использования внешней информации. • Взвешенное предсказание большинства. Этот алгоритм делает свои предсказания используя строки с данными наблюдения в тех же столбцах, взвешенных путем проверенного сходства между строками, с бинарными значениями оценок. Веса (или сходство, с инициализированными значениями 1) увеличиваются путем умножения его на (2 ? ??) когда сравниваемые величины одинаковы и уменьшаются путем умножения на ?? когда различны, ????(0,1). Это обновление эквивалентно. где ?????? , - количество строк, имеющих такие же величины, как и в строке i ?????? , - количество строк, имеющих разные величины. Прогноз для оценки на определенном объекте для активного пользователя определяется оценкой на объекте определенного 35 пользователя, который имеет самое высокое накопленное значение веса с активным пользователем. Этот алгоритм можно обобщить для данных мультикласса, а так же расширить от сходства пользователь- пользователь до сходства объект-объект и к пользователь-объект комбинированного сходства. Одним из недостатков этого алгоритма является масштабируемость, когда число пользователей или объектов растет выше определенного большого числа n, будет непрактичным для вычислений сходства пользователь-пользователь или объект-объект обновлять ??(?? 2 ) матрицу подобия. Методы коллаборативной фильтрации, основанные на модели Проектирование и разработка моделей (например, машинного обучения, алгоритмы интеллектуального анализа данных) может позволить системе научиться распознавать сложные шаблоны, основываясь на обучающих данных, а затем сделать интеллектуальные предсказания для задач КФ для тестовых или реальных данных, на основе изученных моделей. Алгоритмы КФ, основанные на модели, такие как Байесовские модели, модели кластеризации и зависимые сети, были исследованы для решения проблем анамнестических алгоритмов. Как правило, алгоритмы классификации могут быть использованы в качестве моделей КФ, если оценки пользователя выражаются категориями и регрессионные модели, SVD методы используются для численных оценок. Алгоритмы КФ, использующие Байесовские сети доверия. БСД представляет собой ориентированный ациклический граф (DAG – directed acyclic graph – орграф, в котором отсутствуют направленные циклы, то есть пути, начинающиеся и кончающиеся в одной и той же вершине) с триплетом ??, ??, ?? , где каждая вершина представляет собой случайную величину, каждое направленное ребро ?????? между вершинами – это вероятностная ассоциативная связь между переменными, ? – таблица условной вероятности количественной оценки того, сколько вершин зависит от своих родителей. БСД часто используются для задач классификации. • Алгоритм простого Байеса. Этот алгоритм использует стратегию наивного Байеса, чтобы делать предсказания для задач КФ. Если предположить, что особенности независимы от класса, можно вычислить вероятность определенного класса дать все особенности, а затем класс с наивысшей вероятностью будет классифицирован как класс предсказаний. Для не полных данных вычисление вероятности и классификации вычисляются по данным наблюдений (индекс о в следующем уравнении указывает на то, что значения наблюдаемые): Оценка Лапласа используется для сглаживания вероятностных вычислений и чтобы избежать условной вероятности равной нулю: где |????| - размер набора класса {????}. В Miyahara и Pazzani, данные мультикласса в первую очередь преобразуется в данные бинарного класса, а затем преобразуется в булев вектор особенностей оценочной матрицы (Boolean feature vector matrix rating). Эти преобразования делают использование алгоритма наивного Байеса для задач КФ проще, но приносят проблемы масштабирования и потерю информации мультикласса для данных мультикласса. В Miyahara и Pazzani они применяют модель КФ простого Байеса только на бинарных данных. Поскольку большинство реальных данных КФ являются мультиклассом, Su и Khoshgoftaar использовали простой Байесовский алгоритм КФ для данных мультикласса и нашли, что он имеет худшую точность прогноза, но лучшую масштабируемость, чем КФ на основе корреляции Пирсона, так как делает прогнозы, основываясь на наблюдаемых оценках и процесс создания предсказания наименее времязатратный. Простой Байесовский алгоритм можно рассматривать как метод анамнестической КФ, из-за его расчетов для прогнозов КФ в памяти. • NB-ELR и TAN-ELR алгоритмы КФ. Из-за ограничений простого Байесовского алгоритма для задач КФ, можно использовать расширенный алгоритм КФ Байесовских сетей, с его возможностью справляться с неполными данными. Расширенная логическая регрессия (extended logistic regression - ELR) представляет собой алгоритм градиентного подъема, который является дискриминативным параметро - обучаемым алгоритмом, что максимизирует логарифмическую условную функцию правдоподобия. TAN-ELR и NB-ELR (дерево дополнений наивного Байеса и наивный Байес, оптимизированный ELR, соответственно), как было доказано, имеют высокую точность классификации и для полных и для неполных данных. Применительно к задачам КФ, работая на реальных мультиклассовых наборах данных и используя MAE в качестве критерия оценки, эмпирические результаты показывают, что алгоритмы КФ TAN-ELR и NB-ELR выполняют фильтрацию значительно лучше, чем простой Байесовский алгоритм, и последовательно лучше, чем алгоритм корреляции Пирсона при анамнестической КФ. Тем не менее, им нужно больше времени для подготовки моделей. Решение заключается в том, чтобы запустить трудоемкую стадию обучения в автономном режиме (оффлайн), а онлайн стадия, выполняющая прогнозы займет гораздо меньше времени.
Условия покупки ?
Не смогли найти подходящую работу?
Вы можете заказать учебную работу от 100 рублей у наших авторов.
Оформите заказ и авторы начнут откликаться уже через 5 мин!
Похожие работы
Курсовая работа, Разное, 31 страница
330 руб.
Курсовая работа, Разное, 22 страницы
200 руб.
Курсовая работа, Разное, 29 страниц
300 руб.
Служба поддержки сервиса
+7 (499) 346-70-XX
Принимаем к оплате
Способы оплаты
© «Препод24»

Все права защищены

Разработка движка сайта

/slider/1.jpg /slider/2.jpg /slider/3.jpg /slider/4.jpg /slider/5.jpg