Обсуждение Википедии:Как сделать копию Википедии
PHP Warning
Не могу установить пишет ошибки при импорте PHP Warning: xml_parse(): Unable to call handler out_() in /var/www/html/domen.ru/www/includes/Import.php on line 437 Warning: xml_parse(): Unable to call handler out_() in /var/www/html/domen.ru/www/includes/Import.php on line 437
и повторяет их до бесконечности. В чём может быть проблема?
Mihey23 11:09, 24 августа 2009 (UTC)
- поставь более старую версию
- --Tohider 16:39, 7 сентября 2009 (UTC)
Проблема в том, что изменилась xsd схема xml файлов, в которые выгружается дамп. Просто скачай последнюю ревизию файла import.php по адресу: http://svn.wikimedia.org/viewvc/mediawiki/trunk/phase3/includes/Import.php?view=co и замени оригинал в папке /includes Все будет работать. ~~Владимир~~
Could not open input file: importdump.php
Подскажите как решить эту проблему. Возникла на этапе выполнения команды "C:\Program files\xampp\php\php.exe" importDump.php < "C:\Program files\xampp\ruwiki-20060202-pages-meta-current.xml"
Русские Http Заголовки под IIS 6.0
Неработают. Уже всю голову сломал себе, у кого сие под IIS работает?
Начало
Мой первый опыт в написании статей ... Критика будет ? Не верю, что статья идеальная ... -- Pretorean 17:42, 12 Май 2005 (UTC)
- Угу. Её правильнее было бы назвать «Как сделать копию Википедии под Windows». А в остальном — исчерпывающе. Polzohod 18:02, 12 Май 2005 (UTC)
- В чем проблема ? Напиши статью «Как сделать копию Википедии не под Windows» а там и решиться как их назвать. Pretorean 17:39, 13 Май 2005 (UTC)
- было бы интересно, сколько занимает база статей. PCode 18:24, 12 Май 2005 (UTC)
- База MySQL 271мб без истории изменений страниц. Pretorean 17:31, 13 Май 2005 (UTC)
- По моему тарифу это 600 рублей! :) Не, это не для меня. Так. в среднем одна страница весит 15 Kb. То есть там есть и картинки что-ли? PCode 17:39, 13 Май 2005 (UTC)
- Ха! Архив дампа базы примерно 15мб ;) ... а 271 - это развернутый с индексом у меня на диске. Кстати картинок нет ... как их прикрутить есть решение только для англицкой вики. Pretorean 17:42, 13 Май 2005 (UTC)
- Меня именно архив и интересовал. Странно, 15 Mb... в среднем. Мне-то казалось, что в среднем столько не получается. Редкая статья до 10Кб дотягивает.
- Ха! Архив дампа базы примерно 15мб ;) ... а 271 - это развернутый с индексом у меня на диске. Кстати картинок нет ... как их прикрутить есть решение только для англицкой вики. Pretorean 17:42, 13 Май 2005 (UTC)
- По моему тарифу это 600 рублей! :) Не, это не для меня. Так. в среднем одна страница весит 15 Kb. То есть там есть и картинки что-ли? PCode 17:39, 13 Май 2005 (UTC)
- База MySQL 271мб без истории изменений страниц. Pretorean 17:31, 13 Май 2005 (UTC)
- Если я правильно понял, сначала ставая софт ApacheFriends XAMPP, и потом базу Вики. Кстати, ее закачанную и в офлайне или все же в онлайне ставят. И еще. Можно ли работать в режиме браузера или какой-то оболочки? Albedo 13:26, 17 ноября 2005 (UTC)
А что PHP выбирать не нужно?
Прочитал «Нас интересуют только Apache и MySQL.», и возник такой вопрос...
- Нужно. MediaWiki написано на PHP. Maxim Razin 21:50, 18 Май 2005 (UTC)
- Я извиняюсь что не стал расписывать настройку всех компонет а предложил использование готового настроенного пакета, включающего PHP. Расписать настройку всех компонент, взятых 193.233.53.10 10:01, 2 февраля 2009 (UTC) Haldey из оригинальных дистрибутивов, гораздо сложнее, да и я хотел предложить более короткий путь. Pretorean 22:33, 4 июн 2005 (UTC)
А как мне понять какой файл качать если я хочу создать локальную версию другой википедии? Например Вики посвящённой определённой теме. И вообще, для свободного достпуа выкладываются дампы по желанию или в обязательном порядке? — Эта реплика добавлена с IP 87.117.152.253 (о)
- Википедия у нас одна и другой быть не может :) Если ты хочень копию ru.wikipedia.org - то делай по инструкции, а если какой-то другой, то зависит от того, доступны ли дампы этой вики. Дампы wikipedia.org выкладываются разработчиками время от времени, "когда это время у них есть". --Swix 23:38, 10 августа 2006 (UTC)
- Дампы, похоже, выкладываются автоматически. По адресу http://download.wikimedia.org/ можно получить дампы всех проектов Wikimedia Foundetion. Во всех случаях можно получить свежие августовские дампы. А если ввести к адресу загрузки адрес проекта (http://download.wikimedia.org/ruwiki/ ), можно получить более ранние дампы для этого проекта, приведена ссылка для русской Википедии. Так можно взять несколько дампов, например, украинсокй Викитеки (http://download.wikimedia.org/ukwikisource/ ).--GBuilder 13:24, 11 августа 2006 (UTC)
- По словам разработчиков, создание дампов запускают сами разработчики, когда у них есть время. --Swix 17:31, 11 августа 2006 (UTC)
- Начиная с 23 января 2006 года дампы выкладываются автоматически раз в неделю ( http://meta.wikimedia.org/wiki/Data_dumps/ )--GBuilder 19:00, 11 августа 2006 (UTC)
- Ясно, спасибо. --Swix 19:43, 11 августа 2006 (UTC)
- Начиная с 23 января 2006 года дампы выкладываются автоматически раз в неделю ( http://meta.wikimedia.org/wiki/Data_dumps/ )--GBuilder 19:00, 11 августа 2006 (UTC)
- По словам разработчиков, создание дампов запускают сами разработчики, когда у них есть время. --Swix 17:31, 11 августа 2006 (UTC)
- Дампы, похоже, выкладываются автоматически. По адресу http://download.wikimedia.org/ можно получить дампы всех проектов Wikimedia Foundetion. Во всех случаях можно получить свежие августовские дампы. А если ввести к адресу загрузки адрес проекта (http://download.wikimedia.org/ruwiki/ ), можно получить более ранние дампы для этого проекта, приведена ссылка для русской Википедии. Так можно взять несколько дампов, например, украинсокй Викитеки (http://download.wikimedia.org/ukwikisource/ ).--GBuilder 13:24, 11 августа 2006 (UTC)
Как там с rsyncом?
Допустим, один раз скачал и хочу обновлений. Как бы это сделать малой кровью (rsync, patch и т.п.) Maxim Razin 21:35, 18 Май 2005 (UTC)
- А наверно никак ... хотя если Вы узнаете чтото, сообщите пожалуйста. Pretorean 22:36, 4 июн 2005 (UTC)
Ну, очень интересная работа!
Так это что,- вся википедия занимает не более 218мб ,Да?
И ещё -это как я понял установка на свой комп, а как её потом можно зашарить, например, как свой сайт там под доменным именем или просто под IP-адресом ?(тут такое дело , что вот я соберу группу несогласных с нейтральностью и мы решим делать своё с сохранением вандализма например- пусть вандалят, тогда, если время не жалко, на этой псевдо-вики)
извините не сразу увидел =База MySQL 271мб ну и программы ешё сколько?
И ещё момент ! Господа программисты !? Надоело регистрироваться, а как бы сделать адресную строку(включающую PW) ,что клик и ты и вошёл и уже зарегестрированный? — Эта реплика добавлена участником З (о • в)
Версия на CD
А как малой кровью сделать версию для распространения на CD? — Эта реплика добавлена участником A6PAMOB (о • в)
- Мне кажется что время для неё ещё не пришло. Пока что уровень статей недостаточно высок, да и количество невелико. MaxiMaxiMax 17:02, 17 ноября 2005 (UTC)
- Может для Ru.Wikipedia.org не пришло, но инструмент для создания копии базы (набор html страниц или chm-файл) необходим и востребован. Я видел в сети извразщения: снасла натравливают wget, а потом создают chm файл. Но может в wikipedia есть свой инструмент. — Эта реплика добавлена участником A6PAMOB (о • в)
- В Германии Википедию уже вовсю продают. И через P2P качают.
- de:Wikipedia:WikiPress/Download
- Однако, соглашусь: для ru.Wikipedia время ещё не пришло. Вон, взгляните на главную страницу — где немцы сидят, а где —мы:
- www.wikipedia.org
- Наше время ещё придёт. Нам догонять и перегонять не впервой.
- --Schwallex 21:18, 2 февраля 2006 (UTC)
- Наверно глупость скажу, но что мешает WikiTaxi с базой данных на CD закатать?
- Конечно, далеко не идеал, но это решение из коробки. За час получается готовый продукт.
- --Hot fridge 10:14, 29 сентября 2008 (UTC)
- Может для Ru.Wikipedia.org не пришло, но инструмент для создания копии базы (набор html страниц или chm-файл) необходим и востребован. Я видел в сети извразщения: снасла натравливают wget, а потом создают chm файл. Но может в wikipedia есть свой инструмент. — Эта реплика добавлена участником A6PAMOB (о • в)
Offline-версия вики
Есть ли у ру.википедии возможность написать софт для офлайн-просмотра статей? Поддерживает ли движок вообще другой формат отображения данных кроме HTML? Можно ли написать клиента, скачивающего необходимые статьи по требованию? Понимаю, что возможно на все вопросы ответ отрицательный, но такое вообще предусматривается? Было бы очень полезно.. Как в случае с HTML-страничками на локальной машине, но с возможностью обновления и подгрузки статей.. — Эта реплика добавлена участником Oxygene.core (о • в)
- Наиболее очевидный способ это поднять на своём компе web-сервер, php и mysql, взгромаздить на это копию википедии и пользоваться (правда без картинок). Как это сделать и описано в данной статье. MrClon 17:57, 21 января 2012 (UTC)
Версия на CD (Offline-версия вики)
Неспешно занимаюсь в свободное время этим вопросом. Применяю Delphi и SQLite ... -- Pretorean 19:12, 27 января 2006 (UTC)
Изменения...
Я смотрю на http://download.wikimedia.org/ruwiki/latest/ нет дампов SQL для страниц, они теперь вроде как в XML. Статья уже не актуальна, или я не прав? :) Swix 21:02, 2 февраля 2006 (UTC)
- Действительно. «Database dumps are no longer prepared in SQL format; they now occur only in XML (for article contents). If you need to load a MySQL relational database with a SQL dump, you will just need to use an import script.» - http://en.wikipedia.org/wiki/Wikipedia:Download Swix 21:08, 2 февраля 2006 (UTC)
- Согласно meta:Data_dumps, теперь надо использовать скрипт importDump.php, скармливая ему xml-файлы. Если кто-то отладит новый механизм вливания дампов базы и обновит инструкцию, все будут ему очень благодарны --Alexandr Zeinalov 23:01, 2 февраля 2006 (UTC)
- Обновил инструкции по установке XAMPP и MediaWiki, очередь за обновлением инструкции по вливанию дампов в базу. --Alexandr Zeinalov 16:58, 3 февраля 2006 (UTC)
- Обновил вливание дампа, добавил введение с предупреждением об опасности удаленного доступа к базе--Alexandr Zeinalov 19:17, 3 февраля 2006 (UTC)
- Протестировал индексацию, в середине вывалилась с ошибкой, пришлось увеличивать max_allowed_packet; работало всю ночь.--Alexandr Zeinalov 11:58, 4 февраля 2006 (UTC)
- У меня индексация с такой ошибкой: MySQL server has gone away --NetPerson 05:24, 21 мая 2007 (UTC)
- И еще - на [1] лежат какие-то статические дампы, в том числе и русской Википедии (29 октября 2005 года, 60.7Мб). --Alexandr Zeinalov 23:08, 2 февраля 2006 (UTC)
- Жуть какая-то :) Видать прям полные-полные дампы. У американцев одних картинок на 75 Гб... Swix 00:34, 3 февраля 2006 (UTC)
- Согласно meta:Data_dumps, теперь надо использовать скрипт importDump.php, скармливая ему xml-файлы. Если кто-то отладит новый механизм вливания дампов базы и обновит инструкцию, все будут ему очень благодарны --Alexandr Zeinalov 23:01, 2 февраля 2006 (UTC)
Как насчет установки под Unix системы?
Да, как установить Википедию на Линукс ? Apache, php, mysql уже стоят. Но в директории /var/www/htdocs нет директории или файла phpmyadmin
- зачем тебе phpmyadmin? напиши поточнее что не получается. Kvazarum 17:01, 10 ноября 2006 (UTC)
Смотреть здесь: Википедия:Как сделать копию Википедии под Linux infovarius 10:32, 22 ноября 2007 (UTC)
Формулы LaTeX
Может кто-то напишет, как сделать отображение формул. А то я сам так и не смог скомпилить то, что лежит в директории wiiki\math :(
- только что сделал это — просто прочитал README лежащий в каталоге /wiki/math.
- скачиваешь с сайта http://caml.inria.fr/ пакет ocaml, компилишь:
- ./configure
- make world
- make opt
- make install
- (или просто ставишь если тянул rpm),
- проверяешь установлен ли у тебя пакет tetex-latex — если нет — ставишь.
- потом заходишь в каталог /wiki/math — и делаешь make.
- Если не будет работать — проверь пути.
- Проверить работу можно командой «texvc <temp directory> <output directory> <TeX code> <encoding>»,
- я например писал «texvc /home/kvazar/temp /var/www/html/mediawiki/math „y=x+2“ iso-8859-1»
- всё заработало. Kvazarum 16:57, 10 ноября 2006 (UTC)
- А под виндой это как можно сделать? И вообще на локальную машину ставить - это одно, а вот как с хостинг-провайдером это все провернуть? --Heller2007 07:07, 26 января 2011 (UTC)
Полный архив статей
Сделал всё по инструкции, всё заработало с первого раза. Но вот только кол-во статей из русского архива явно не совпадает с количеством в оригинальной Вики. Где можно взять ПОЛНЫЙ архив? Kvazarum 09:50, 9 ноября 2006 (UTC)
- Можно взять тут: http://download.wikimedia.org/ruwiki/ . Последний дамп был вчера: http://download.wikimedia.org/ruwiki/20061108/ . Естественно, что за сутки добавилось около сотни-другой статей.--GBuilder 12:30, 9 ноября 2006 (UTC)
- Я наверное что-то не так делал - тянул именно оттуда, но после установки статей было около 120 :(. Хотя устанавливал несколько разKvazarum 16:59, 10 ноября 2006 (UTC)
- И никаких сообщений об ошибках, предупреждений, типа "MySQL server has gone away"?--GBuilder 13:42, 11 ноября 2006 (UTC)
- Всё проходило нормальноKvazarum 20:05, 17 ноября 2006 (UTC)
- И никаких сообщений об ошибках, предупреждений, типа "MySQL server has gone away"?--GBuilder 13:42, 11 ноября 2006 (UTC)
- Я наверное что-то не так делал - тянул именно оттуда, но после установки статей было около 120 :(. Хотя устанавливал несколько разKvazarum 16:59, 10 ноября 2006 (UTC)
- Вот такие ошибки выдало при очередной попытке сделать дамп командой "php /var/www/html/mediawiki/maintenance/importDump.php < :::::ruwiki-20061023-pages-meta-current.xml"
- WikiRevision given a null title in import.
- Backtrace:
- 0 /var/www/html/mediawiki/includes/SpecialImport.php(241): WikiRevision::setTitle()
- 1 /var/www/html/mediawiki/includes/SpecialImport.php(619): WikiRevision->setTitle(NULL)
- 2 /var/www/html/mediawiki/includes/SpecialImport.php(418): WikiImporter->in_page(Resource id #53, 'revision', Array)
- 3 /var/www/html/mediawiki/includes/SpecialImport.php(418): xml_parse(Resource id #53, '[[Special:Contr...', 0)
- 4 /var/www/html/mediawiki/maintenance/importDump.php(110): WikiImporter->doImport()
- 5 /var/www/html/mediawiki/maintenance/importDump.php(97): BackupReader->importFromHandle(Resource id #52)
- 6 /var/www/html/mediawiki/maintenance/importDump.php(132): BackupReader->importFromStdin()
- 7 {main} Kvazarum 11:41, 18 ноября 2006 (UTC)
- Разработчики рекоммендуют добавить "+" в $wgLegalTitleChars = " +%!\"$&'()*,\\-.\\/0-9:;=?@A-Z\\\\^_`a-z~\\x80-\\xFF" (в файл LoalSettings.php); Также для импорта дампа можно воспользоваться MWDumper вместо importDump.php.--GBuilder 17:07, 23 ноября 2006 (UTC)
- А версия МедиаВики не очень старая? MaxSem 13:11, 30 ноября 2006 (UTC)
- Поставил последнюю версию МедиаВики - помогло, но после суток работы установило процентов 95 статей и прервало с сообщением об ошибке. Я не стал второй раз запускать - очень долго занят был сервер, не прикольно. Kvazarum 20:55, 3 декабря 2006 (UTC)
- Вроде с MWDumper может быстрее получиться. MaxSem 21:04, 3 декабря 2006 (UTC)
- Поставил последнюю версию МедиаВики - помогло, но после суток работы установило процентов 95 статей и прервало с сообщением об ошибке. Я не стал второй раз запускать - очень долго занят был сервер, не прикольно. Kvazarum 20:55, 3 декабря 2006 (UTC)
Аплоад файлов изображений
Не могу аплоадить файлы с расширение svg и png. Пишет "Файл либо повреждён, либо имеет неверное расширение. Пожалуйста, проверьте файл и попробуйте загрузить его ещё раз." Проверил файл DefaultSettings.php в папке includes - там расширение png стоит в списке разрешённых. Может поможет кто как решить проблему? Kvazarum 21:01, 18 января 2007 (UTC)
то же самое. Версия МедиаВики 1.5.7. 19 октября 2007
А у меня при попытке загрузить .svg система пишет, мол "этот тип файлов не рекомендован в качестве изображения" A.Larionov 08:01, 22 апреля 2007 (UTC)
- Вам поможет этот код в файле LocalSettings.php
$wgFileExtensions = array_merge($wgFileExtensions, array('png', 'gif', 'jpg', 'jpeg'));
- 93.92.200.150 23:17, 27 июня 2009 (UTC)
Скорость работы
Н сегодня (15.02.2007) архив базы занимает 157 мб, а в распакованном виде - 1 гб ) На моем компьютере (Pentium D 3.0, 1 гб RAM) импорт занял почти 48 часов и еще сутки переиндексация...
- Ставил себе дамп ruwiki-20070331-pages-articles.xml.bz2 (172 МБ). Появились такие вопросы:
- Шаблоны на Порталах не обрабатываются. Похоже, надо править LocalSettings.php. Что там должно быть про namespaces?
- rebuildall.php у меня таблицу searchindex сделал, а на стадии refreshLinks я его прервал -- уж ОЧЕНЬ медленно (1.5-2 pages/sec). Можно ли вместо refreshLinks скачать дампы каких-нибудь SQL-таблиц c download.wikimedia.org ? А вообще, зачем ли его делать-то?
- importDump.php выполнялся тоже ОЧЕНЬ медленно, 2-2.5 pages/sec (у меня Sempron 2GHz, RAM 1GB, XAMPP). Я нашел скрипт [mwimport.pl] и заливал дамп им, 300-400 pages/sec. Потом, для верности, перезалил через importDump -- намного быстрее, около 150 pages/sec. Правильно ли это?
- Вообще, странно, что у Вас переиндексация заняла сутки... У меня переиндексация заняла 19 часов (rebuildtextindex), а refreshLinks (который в rebuildall) обещал выполняться суток пять:-) --tsul 22:54, 16 апреля 2007 (UTC)
Ошибка при установке MediaWiki
После успешной установки Apache+MySQL и создания wikidb (в MySQL, кстати, можно выбрать кодировки 3 раза - при установке, поле "Сопоставление соединения с MySQL" и при создании базы данных опция "сравнение" - я везде выбирал UTF-8bin), media-wiki не удаётся правильно конфигурировать. Выдаётся ошибка после нажатия "установить":
Creating tables... using MySQL 4 table defs...Query "CREATE TABLE `categorylinks` ( cl_from int(8) unsigned NOT NULL default '0', cl_to varchar(255) binary NOT NULL default , cl_sortkey varchar(86) binary NOT NULL default , cl_timestamp timestamp NOT NULL, UNIQUE KEY cl_from (cl_from,cl_to), KEY cl_sortkey (cl_to,cl_sortkey), KEY cl_timestam p (cl_to,cl_timestamp) ) TYPE=InnoDB " failed with error code "Specified key was too long; max key length is 1000 bytes (localhost)".
Насколько порыскал в сети - часто встречаемая ошибка в MySQL.
Пытался исправить кое-где кодировки на cp1251bin (везде не получилось), выдаётся другая ошибка. Если интересно, попробую воспроизвести.
Вопрос - что делать? infovarius 12:00, 15 апреля 2007 (UTC)
- Создавай базу в кодировке cp1251_general_ci (в phpMyAdmin) и повтори установку NetPerson
Изображения в локальной копии Википедии на движке Mediawiki
А есть ли возможность при создании локальной копии сделать так, чтобы на компьютере у пользователя при просмотре статьи загружались картинки непосредственно с этого сайта (ru.wikipedia.org)? А то без картинок скучновато как-то... NetPerson
- Думаю, что нельзя. Кстати, большинство картинок вообще не здесь, а на commons. --Kaganer 22:42, 10 мая 2007 (UTC)
- Да мне не важно, с какого именно сервера. Главное, чтобы картинки подгружались из внешки браузером клиента. В Википедии нашел пару сайтов-клонов, где это реализовано. Вот один из них.--NetPerson 17:31, 21 мая 2007 (UTC)
- Интересно, а копию commons можно как-нибудь сделать ? Хотя бы теоретически, это возможно ? Middle urals 07:29, 8 апреля 2009 (UTC)
А как сделать блокировку правки по IP?
Собираюсь запустить Википедию в нашей сети, я думаю, что будет очень актуально.
Некорректное отображение страниц
Вот, поставил, делаю индекс. Однако некоторые страницы отображаются с html и каким-то другим кодом. Посмотрите вот тут. Что я неправильно сделал?
- Скорее всего, не установлено расширение ParserFunctions.php, которое ответственно за логические операторы типа #if. infovarius 10:46, 21 мая 2007 (UTC)
- Да, действительно частично помогло, спасибо! Но некоторые html-теги в тексте остались. Картинка тут--NetPerson 09:06, 22 мая 2007 (UTC)
- У меня та-же проблема.( Пожалуйста подскажите, что подкрутить? на неаоторых страницах отбражается /<div ...( 23:21 30 августа 2007
- У меня вообще - такой-то ужас. Поставил все модули, которые стоят на ru.wikpedia, самой последней ревизии. Непонятно, в чем дело... --Kein 16:26, 15 декабря 2009 (UTC)
- Я установил расширение, но страницы все равно некорректно отображаются выводятся шаблоны 87.226.164.114 04:20, 9 июля 2010 (UTC)Sonic
- Для ParserFunctions добавь вот это в конфиг:
# ParserFunctions
require_once("$IP/extensions/ParserFunctions/ParserFunctions.php");
$wgPFEnableStringFunctions = true;
$wgShowExceptionDetails = true;
- Впрочем, у тебя какая-то другая проблема, языковые файлы побиты или устарели? Вместо правильных строк - вариаблы-плейсхолдеры, "featured page", "index", etc...Kein 13:32, 9 июля 2010 (UTC)
- Ну помогите кто-нибудь, все портят теги типа
<ref&rt;
. Установил последнюю версию медиа вики - то же самое.83.234.62.138 10:49, 20 ноября 2010 (UTC)
- Ну помогите кто-нибудь, все портят теги типа
- У меня та-же проблема.( Пожалуйста подскажите, что подкрутить? на неаоторых страницах отбражается /<div ...( 23:21 30 августа 2007
- Да, действительно частично помогло, спасибо! Но некоторые html-теги в тексте остались. Картинка тут--NetPerson 09:06, 22 мая 2007 (UTC)
→ Версия mediawiki должна совпадать с версией расширения. Есть файл настроек "LocalSettings.php" - в нём должно быть указано require_once("$IP/extensions/ParserFunctions/ParserFunctions.php");. Само расширение устанавливается в папку \extensions, которая находится в папке куда вы ставили Mediawiki. Просто забрасываете в неё всю папку ParserFunctions, включаете в файле настроек (см. выше) и всё должно заработать. Все остальные тэги - которые не будут работать действуйте аналогично -> на сайте все соответствующие расширения для соотв. версий Mediawiki доступны и работают. Centurion198 11:16, 20 ноября 2010 (UTC)
- Самое интересное что я все это сделал. А какие расширения отвечают за эти теги? пример 83.234.62.138 11:38, 20 ноября 2010 (UTC)
- Скорее всего у вас с шаблонами проблемы (красным отображаются) - их просто нету.. смотрите Шаблон Примечания, а должен быть таким. И во многих шаблонах обычно есть документация. Centurion198 11:47, 20 ноября 2010 (UTC)
- Так хорошо, проблему выяснили, а как ее решить?83.234.62.138 11:52, 20 ноября 2010 (UTC)
- Вариантов два: либо полностью переустановить полный дамп Википедии (включающий эти шаблоны), либо отдельно перенести нехватающие шаблоны в вашу уже установленную версию (их может быть много). Centurion198 11:58, 20 ноября 2010 (UTC)
- Я конечно за второй вариант... а вот где их взять и в каком они виде? 83.234.62.138 12:01, 20 ноября 2010 (UTC)
- Вариантов два: либо полностью переустановить полный дамп Википедии (включающий эти шаблоны), либо отдельно перенести нехватающие шаблоны в вашу уже установленную версию (их может быть много). Centurion198 11:58, 20 ноября 2010 (UTC)
- Так хорошо, проблему выяснили, а как ее решить?83.234.62.138 11:52, 20 ноября 2010 (UTC)
- Скорее всего у вас с шаблонами проблемы (красным отображаются) - их просто нету.. смотрите Шаблон Примечания, а должен быть таким. И во многих шаблонах обычно есть документация. Centurion198 11:47, 20 ноября 2010 (UTC)
→ Аналогично приведённым мною ссылкам. Откроете шаблон. В меню выбираете "Просмотр" -> увидите код шаблона. Попробуйте. Удачи! Centurion198 12:05, 20 ноября 2010 (UTC)
- Благодарю! С шаблонами все ясно, а как быть с тегами типа
<ref >
и<tr >
? Это же парсер не до конца сработал? 83.234.62.138 12:23, 20 ноября 2010 (UTC)83.234.62.138 12:27, 20 ноября 2010 (UTC)
- Благодарю! С шаблонами все ясно, а как быть с тегами типа
→ Проверьте установлены ли вот эти расширения: ParserFunctions.php и Cite.php. Второе расширение, если не ошибаюсь, отвечает за сноски. Centurion198 12:34, 20 ноября 2010 (UTC)
- Выражаю глубокую благодарность, теперь остается только подобрать ревизию :-) Вы даже не представляете как Вы мне помогли :-) СПАСИБО! 83.234.62.138 12:48, 20 ноября 2010 (UTC)
→ Рад был помочь :-) Centurion198 12:50, 20 ноября 2010 (UTC)
Импорт базы данных
В общем установил я веб сервер на апачи 5 , пхп последний и мускул то же последний ! Настроил сервер ! Проинсталировал вики .... скачал дамп базы ! Указываю на этот дамп .... а он не хочет импортироватся больше 2 мегов ! И в мускуде пробовал настройки менял ... и в самом серваке ... и пхп ! Скачивал локальные веб сервер хампп , как сказано в руской вики ! Всё равно не хочет ! Кто знает как это дело исправить ? Подскажите пожалуйста ? Что нужно поменять и где ? — Эта реплика добавлена с IP 88.200.163.96 (о) 12:51, 1 июня 2007 (UTC)
- А какой ты дамп скачивал? Что пишет importDump.php? --NetPerson 04:59, 9 июня 2007 (UTC)
А уменя ещё вопросы, извините "чайника": для установик дампа команды указанные в статье нужно как-то редактировать (кроме имени дамп-файла)? Или можно копировать их в буфер, а из буфера в коммандную строку? И ещё эти команды можно запускать из TotalCommander или нужна другоая программа? Дело в том, что у меня после запуска команд из TotalCommander, вставленных из буфера и с изменённым именем дамп-файла, ничего не происходит. При этом установлены и работают сервер и МедиаВики. Помогите, а то замучался. Спасибо. Даниил Ив. Довбун 13:36, 10 июля 2007 (UTC)
- Лучше не запускать из ТаталКоммандера. Открой командную строку через "Пуск" > Выполнить > cmd Если что-то неправильно нипасал - командная строка выдаст ошибку.
MWDumper - объясните по русски
Если кто-то разобрался, объясните, пожалуйста, как установить дамп с помощью MWDumper (очень слаб в английском). Даниил Ив. Довбун 13:28, 10 июля 2007 (UTC)
- Я советую продублировать этот и предыдущий вопросы на форуме (со ссылкой сюда). Так больше вероятность, что их заметит кто-то разбирающийся в теме. --Kaganer 16:41, 10 июля 2007 (UTC)
- Umm... Думаю, ответ немного запоздал, но я таки добавлю в статью мануал на тему :P --Kein 16:29, 15 декабря 2009 (UTC)
Установка под комплекс Denwer-2
Здраствуйте уважаэмые пользователи посоветуйте как правильно установить и настроить. Все програмное обеспечение взято с сайта Denwer были загружены все последние версии компонентов (Последняя версия базового пакета + PHP5 Скачать дистрибутивы дале были скатаны следующие файлы Base_PHP5_2006-10-04_a1.3.33_p5.1.6_m4.1.16_pma2.6.1.exe (директория Base_PHP5) и MySQL5_2006-01-30_5.0.18.exe (директория MySQL5), имена файлов может изменится в случае обновления компонентова на момент написания етого текста это были последние версии компонентов. И MediaWiki 1.10.1 и дамп ukwiki-20070723-pages-meta-current.xml.bz2, а также файл ukwiki-20070723-pages-meta-history.xml.7z (что с ним пожна делать нужен ли он вообще). В принцеме используя сервер Denwer было сделано все что описано сервера XAMPP но до устоновки дампа недошло потому што видает следующую ошибку цитирую
Помилка бази даних Знайдено синтаксичну помилку в запиті до бази даних. Останній запит до бази даних: (SQL запит приховано) відбувся з функції "Article::pageData". MySQL повернув помилку "1267: Illegal mix of collations (cp1251_bin,IMPLICIT) and (latin1_swedish_ci,COERCIBLE) for operation '=' (localhost)".
Если кто знает опишите пожалуйста как правильно и коректно настроить под комплексом Denwer. Зарание благодарен и спасибо за ответы. --Shakal07 16:59, 8 августа 2007 (UTC)
Знакомая история. Мне тоже не удалось установить связку Denwer Base_PHP5+Wiki 1.10 - та же ошибка. Но на Денвере Base_PHP4 все работает без проблем, только для этого нужда Медиавики, работающая с PHP4, у меня это 1.5.6. Я пробовал последнюю 1.6, но она дико тормозит, ток что я остался на пятерке :) --A.Larionov 08:58, 22 декабря 2007 (UTC)
- В MediaWiki встроена возможность для исправления этой проблемы. И не зачем делать даунгрейд PHP(и как следствие MediaWiki). В LocalSettings.php надо установить параметр:
$wgDBmysql5 = true;
- Если грабля возникла после переноса базы(для надёжности можно и при первоначальной установке), при условии, что все страницы(и в частности заглавная) стали "отсутствующими"(при этом в таблице 'page' базы, содержащей информацию о страницах, их названия в виде кракозябр), то в файле Includes/db/Database.php(можно в дополнение к этому и в Includes/Database.php) в строчке:
$this->query( 'SET NAMES utf8', __METHOD__ );
- кодировку сменить на cp1251. — Зелёный КошакTs 23:58, 15 октября 2010 (UTC)
Установка под комплекс Denwer-3
Здраствуйте уважаэмые пользователи посоветуйте как правильно установить и настроить.
Ошибка у меня
Хм, у меня выдаёт ошибку. Скачал я xampp-win32-1.6.3a-installer, установил, и когда я после этого захожу на http://localhost/, пишет:
Не могу открыть ErrorLogFile: C:\inetpub\TwilightCMS/Sites/localhost/Data/Logs/error.log. Проверьте путь к файлу.
С чем это может быть связано? —Александрит 21:48, 24 августа 2007 (UTC)
- Ты точно установил с официального сайта? Если да, то создай пустой файл на месте C:\inetpub\TwilightCMS/Sites/localhost/Data/Logs/error.log, после чего рестартуй сервер. Права пропиши на запись, если у тебя windows 2000/2003. (и всё-таки ты не тот xampp поставил... Зачем тебе Twilight CMS?) --22:17, 24 августа 2007 (UTC)
- Скачивал с официального сайта. Файл создал — не помогло. Кстати, почему-то Apache-модуль не запускается, только MySql. P.S. windows у меня xp sp2 —Александрит 22:33, 24 августа 2007 (UTC)
- Кажется проблема, заключается в том, что порт 80 занят. Правда я не знаю, как его освбодить :( —Александрит 23:05, 24 августа 2007 (UTC)
- Похоже, 80 порт занят IIS. Его можно отключить или настроить апач на другой порт.--78.106.53.238 08:18, 26 августа 2007 (UTC)
- Я в этом плохо разбираюсь, не подскажете как настроить Apache на другой порт? —Александрит 08:37, 26 августа 2007 (UTC)
- Исправить C:\Program Files\xampp\apache\conf\httpd.conf . По умолчанию используется команда Listen 80 . Нужно поменять значение порта, затем запустить апач. А вообще, ссылка на официальный сайт с документацией есть в статье Apache.--78.106.53.238 09:58, 26 августа 2007 (UTC)
- Вместо 80 можно поставить любой порт? Я попробовал некоторые, а по адресу http://localhost/ пишет
- Исправить C:\Program Files\xampp\apache\conf\httpd.conf . По умолчанию используется команда Listen 80 . Нужно поменять значение порта, затем запустить апач. А вообще, ссылка на официальный сайт с документацией есть в статье Apache.--78.106.53.238 09:58, 26 августа 2007 (UTC)
- Я в этом плохо разбираюсь, не подскажете как настроить Apache на другой порт? —Александрит 08:37, 26 августа 2007 (UTC)
- Похоже, 80 порт занят IIS. Его можно отключить или настроить апач на другой порт.--78.106.53.238 08:18, 26 августа 2007 (UTC)
- HTTP/1.1 404 Object Not Found
- А когда я включаю XAMPP Control Panel, запускается только MySql, при попытке запустить apache пишет
- Busy...
- ERROR: Apache service not started [-1]
Можно поставить любой не занятый порт. Ссылку на статью про порты я давал не просто так.
Если используется порт, отличный от стандартного для HTTP 80-го, то адрес надо вводить вместе с портом.
Для Listen 8000 это будет http://localhost:8000 . "HTTP/1.1 404 Object Not Found" - это выдал IIS, а не апач.
Если же апач не запускается, то он обычно сообщает причину этого. Щёлкните по "Мой компьютер" правой кнопкой, далее пункт меню "Управление". В окне "Управление компютером" выбрать "Служебные программы" -> "Просмотр событий" -> "Приложение". Если апач запускался как Windows Service, то в списке событий будут сообщения и от него. Более подробная информация о сбоях апача находится в C:\Program Files\xampp\apache\logs\error.log . Кстати, в том же окне "Управление компютером" есть элемент дерева "Службы и приложения" -> "Диспетчер служб IIS", где можно отключить экземпляр веб-сервера IIS, висящий на 80 порту.--78.106.53.238 11:12, 26 августа 2007 (UTC)
У меня на последнем действии(php rebuildall.php) :
** Rebuilding links tables -- this can take a long time. It should be safe to abort via ctrl+C if you get bored.
Refreshing link table. Starting from page_id 1 of 3044. Обнаружена ошибка синтаксиса запроса к базе данных. Последний запрос к базе данных: «INSERT IGNORE INTO `externallinks` (el_from,el_to,el_index) VALUES ('1','http://meta.wikimedia .org/wiki/%D0%9F%D0%BE%D0%BC%D0%BE%D1%89%D1%8C:%D0%A1%D0%BE%D0 %B4%D0%B5%D1%80%D0%B6%D0%B0%D0%BD%D0%B8%D0%B5','http:// org.wikimedia.meta./ wiki/%D0%9F%D0%BE%D0%BC%D0%BE%D1%89%D1%8C:%D0%A1%D0%BE%D0%B4%D0%B5%D1%80%D0%B6%D0%B0%D0%BD%D0%B8%D0%B5'), ('1','http:/ / www.mediawiki.org/wiki/Help:Configuration_settings','http://org.mediawiki.www./wiki/ Help:Configuration_settings'),('1','http://www.mediawiki.org/wiki/Help:FAQ','http://org.mediawiki.www./wiki/ Help:FAQ'),('1','http://mail.wikimedia.org/mailman/listinfo/mediawiki-announce','http://org.wikimedia.mail./ mailman/listinfo/mediawiki-announce')» произошёл из функции «LinksUpdate::incrTableUpdate».
MySQL возвратил ошибку «1114: The table 'externallinks' is full (localhost)»
.
- Не знаю как но теперь ее нет. Вроде как запустил update.php из папки maintenance.
apache2triad против xampp
Попробуйте в качестве серванта apache2triad. Мощнейшая вещь со всеми навесками. Явно лучше. У меня установилась с первого раза.
- весьма рекомендую также VertrigoServ. XAMMP не пробовал, потому, что с Vertrigo у меня тоже всё получилось. посмотрел в сторону apache2triad - действительно, и тебе почта и фтп и др. и пр.
Установка MediaWiki
- Ошибка здесь:
- «Скачиваем и устанавливаем MediaWiki. На http://wikipedia.sourceforge.net/ скачиваем последнюю версию MediaWiki (у меня была версия 1.5.6 то есть я скачал файл mediawiki-1.5.6.tar.gz). Это архив. Распакуем его в папку C:\Program files\xampp\htdocs\wikipedia\»
- - это выполнил без вопросов.
- «Зайдя по адресу http://localhost/wikipedia/ увидим сообщение You’ll have to set the wiki up first!. Это нормально, жмем на ссылку set the wiki up.»
- А это не получилось. Сообщение не увидел.--jd20070415 03:35, 26 октября 2007 (UTC)
- А какое сообщение увидели? Если апач не стартует, проверьте его логи.--78.106.130.21 08:47, 26 октября 2007 (UTC)
- Последние сообщения, принятые к сведению были:
- «БД wikidb была создана.»
- «Был добавлен новый пользователь.» xammp работает. --jd20070415 10:26, 26 октября 2007 (UTC)
- Из статьи: "Далее предполагается, что вы не меняли путь, который предлагала программа установки." Последняя версия предлагала путь: "C:\xampp". В этом и была проблема. Изменил строку в статье на «Далее предполагается, что вы не меняли путь, который предлагала программа установки (C:\Program files\xampp).».--jd20070415 05:24, 12 ноября 2007 (UTC)
- А какое сообщение увидели? Если апач не стартует, проверьте его логи.--78.106.130.21 08:47, 26 октября 2007 (UTC)
End
А как экспортировать только шаблоны?
Мне не нужны все статьи, но вот шаблоны бы очень пригодились. Как их моожно экспортировать в свою mediawiki?
Снова про скорость
Господа, если импортировать базу через importDump.php, то это займёт дней десять. tsul преждожил через [mwimport.pl], а как не объяснил. Можно всё таки поподробней изложить тем, кто не понимает в программировании. Permjak 11:24, 3 марта 2008 (UTC)
- Посмотри тут в разделе 3.2. Правда, не факт, что при новых версиях Mediawiki сработает - уж больно давно я тестировал.--ShurShur?/* 12:02, 3 марта 2008 (UTC)
Не копируется текст из WikiTaxi
WikiTaxi 1.0.6. Импортировал дамп, все отображается как надо, а вот скопировать текст не получается. Или эта функция по умолчанию отключена? Dimmer 10:21, 18 января 2009 (UTC)
Объясните пожалуйста
это что, получается всю базу данных википедии можно скопировать к себе на пк?? Это ж сколько памяти-то нужно?? — Эта реплика добавлена участником UnholyFreezz (о · в) 06:30, 11 февраля 2009 (UTC)
- для русского раздела не больше гигабайта, для английского раз в 10 больше. infovarius 19:01, 28 апреля 2009 (UTC)
потому что копируется только текст и разметка, все изображения хранятся непосредственно на сайте Викимедиа, и поэтому не копируются 77.123.89.157 15:40, 23 июня 2009 (UTC)anon
- А что находится здесь ? Какой-то дамп на 3.6 GB Видимо, какой-то текстовый дамп. А вообще, какой тогда смысл в Википедии без картинок ? А как тогда немецкое издание Википедии на DVD собрано ? - Middle urals 13:26, 21 июля 2009 (UTC)
- Да, там только текст, тот большой - это со всеми версиями за всю историю существования ВП. Обидно, но да без картинок - их нужно как-то ддогружать отдельно, я еще тоже не разобрался (если кто пояснит как это правильно сделать, и где реально хранятся картинки относительно базы данных - буду очень благодарен). Немецкое издание специально собрано и упакованно - оно не использует эти средства (в частности движок Вики) - там не полноценная Вики - только просмотр, без возможности редактировать и прочего .. S.J. 13:47, 21 июля 2009 (UTC)
- В принципе в локальной копии редактирование статей ни к чему... По изображениям - на странице Wikimedia Commons Helpсказано: The database of Wikimedia Commons can be downloaded at http://download.wikimedia.org/commonswiki/. Sadly the available dumps are only the database text. There is currently no dump of the media files available. Где-то я видел, что дамп изображений не выкладывается из-за большого размера. А вообще есть мысль, что неплохо бы сделать оффлайн-версию Википедии к пятьсот тысячной статье. Поэтому, мне и интересно, как сделать дамп изображении. - Middle urals 14:48, 23 июля 2009 (UTC)
- В принципе я могу скачать все изображения со склада, но зачем это?--Ashik talk 20:42, 23 июля 2009 (UTC)
- Просто захотелось иметь полноценную оффлайновую версию Википедии с картинками и фотографиями, а не только текст. Еще бы понять, как прикрутить картинки к доступному сейчас дампу? - Middle urals 03:11, 24 июля 2009 (UTC)
- Скачиваешь изображение в буфер, а потом через стандартные апи аплоадишь его в зеркало. --Ashik talk 05:35, 24 июля 2009 (UTC)
- В принципе в локальной копии редактирование статей ни к чему... По изображениям - на странице Wikimedia Commons Helpсказано: The database of Wikimedia Commons can be downloaded at http://download.wikimedia.org/commonswiki/. Sadly the available dumps are only the database text. There is currently no dump of the media files available. Где-то я видел, что дамп изображений не выкладывается из-за большого размера. А вообще есть мысль, что неплохо бы сделать оффлайн-версию Википедии к пятьсот тысячной статье. Поэтому, мне и интересно, как сделать дамп изображении. - Middle urals 14:48, 23 июля 2009 (UTC)
- Да, там только текст, тот большой - это со всеми версиями за всю историю существования ВП. Обидно, но да без картинок - их нужно как-то ддогружать отдельно, я еще тоже не разобрался (если кто пояснит как это правильно сделать, и где реально хранятся картинки относительно базы данных - буду очень благодарен). Немецкое издание специально собрано и упакованно - оно не использует эти средства (в частности движок Вики) - там не полноценная Вики - только просмотр, без возможности редактировать и прочего .. S.J. 13:47, 21 июля 2009 (UTC)
Ошибка
Warning: xml_parse(): Unable to call handler in_() in C:\Program Files\xampp\htd ocs\wiki\includes\Import.php on line 437
Заменил я нужный файл, появилось:
C:\Program Files\xampp\htdocs\wiki\maintenance>"C:\Program files\xampp\php\php.e xe" importDump.php < "C:\Downloads\ruwiki.xml"
Fatal error: Cannot redeclare class wikirevision in C:\Program Files\xampp\htdoc s\wiki\includes\Import.php on line 30
C:\Program Files\xampp\htdocs\wiki\maintenance> --188.18.88.118 16:02, 14 мая 2010 (UTC)
- Дамп от какого числа? Вообще, рекомендую поставить тебе самую последнюю ревизию Вики, и импортировать самый последний дамп из выложенных. --Kein 11:06, 15 мая 2010 (UTC)
Столкнулся с аналогичной проблемой: точь в точь. Дамп самый последний из собранных. Помогите пожалуйста. Получается, что все файлы в SVN нужно брать? 109.94.64.1 18:28, 10 июня 2010 (UTC)
- Да, рекомендуется использовать последнюю версию mediawiki из SVN при использовании последних доступных дампов. --Kein 12:26, 11 июня 2010 (UTC)
Медленно загружаются страницы
Поставил себе XAMPP, MediaWiki, залил дамп с помощью importDump.php (для ознакомления я использовал небольшой дамп из нескольких сот страниц, сгенерированный на http://en.wikipedia.org/wiki/Special:Export). А вопрос вот в чём: почему так долго загружаются страницы? Если небольшие, то занимает от нескольких секунд до минуты, а если больше некоторого размера, то спустя минуту пишет: Fatal error: Maximum execution time of 60 seconds exceeded in C:\xampplite\htdocs\wikipedia\includes\Title.php on line 137. Иногда в пути указан другой файл из той же папки. И другой номер строки. Неужели всё так серьёзно для процессора Celeron 500? Страницы из Интернета по dial-up загружаются и то быстрее. Eugeno 19:05, 14 июля 2010 (UTC)
- Если ты посмотришь в логи MySQL, то наверняка увидишь свои запросы в slow-query. Да, все таки критично, тебе нужно выделить больше ресурсов для MySQL, дабы ускорить работу оной. Kein 03:49, 15 июля 2010 (UTC)
fatal error выдаёт PHP, потмоу что проходит 60 сек и скрипты вылетает по таймауту, чтобы скрипт не вылетал в php.ini нужно выставить "max_execution_time=0;". Страницы загружаться быстрее не будут, но вообще загружаться будут. (у меня на 3Гц проце и 4 гига ram страницы загружаются по 5-15 сек)
Как скачать джаваскрипты?
В частности тот, в котором лежит функция sajax_do_call(), которая вызывается из http://ru.wikipedia.org/ruwiki/w/extensions/CategoryTree/CategoryTree.js --Unwrecker 10:21, 20 апреля 2011 (UTC)
- Они должны идти вместе с движком, например http://ru.wikipedia.org/skins-1.5/common/ajax.js, разумеется, если установлено соотвествующее расширение: см. «CategoryTree» в Служебная:Version. Также см. mw:ResourceLoader/JavaScript Deprecations. — AlexSm 14:44, 20 апреля 2011 (UTC)