Manual:TikiWiki Conversion/ru
Эта страница устарела. |
Эта инструкция используются для конвертации страниц из TikiWiki версии 1.9.3.1 как на вики, так и на HTML разметку версии 1.10.4 MediaWiki. Сценарий принимает TAR-архив, экспортируемый из TikiWiki и возвращает XML файлы MediaWiki.
Эта инструкция пригодна также и для других версий, синтаксис которых отличается не слишком сильно, но, как видите, у нас была только одна маленькая wiki для конвертации; она протестирована не слишком хорошо. Она работает со всем синтаксисом в нашей TikiWiki, несмотря на то, что он представлял собой жуткую смесь чистого вики-синтаксиса, чистого html и чего-то среднего между ними.
Все исправления страниц будут импортированы вместе с их историей и вкладчиками.
Авторы страниц будут включены в список авторов TikiWiki. Они могут существовать или не существовать в MediaWiki и эти страницы будут приписаны любому, кто зарегистрируется, используя это имя пользователя.
Загруженные в TikiWiki файлы будут загружены и в MediaWiki, а их постоянные ссылки нужно будет установить вручную. Сценарий выведет список страниц, содержащих закачки файлов.
Изображения из TikiWiki включаются как внешние изображения, которые повлекут изменение настроек внешних изображений в вашей MediaWiki. Тем не менее, это может включить опцию "позволять изображения только с одного URL".
Требования
edit- Администраторский доступ к вашей TikiWiki
- Администраторский доступ к установленной MediaWiki
- Доступ к базе данных TikiWiki и возможность выполнять команды MySQL
- Питон (не уверены какая версия требуется - мы использовали 2.5.1)
- чтобы быть уверенными, что всё распознается правильно, применяйте этот патч из этого бага
- Скрипт конвертации на языке питон
Экспорт
edit- Чтобы экспортировать данные из TikiWiki, перейдите на Admin (или Admin Home) в вашей Вики и выберите ссылку "Export" в "Export Wiki Pages".
- Это создаст TAR-архив, export.tar из MIME (RFC2045) message (RFC2822) файлов.
- Вам также нужно будет создать XML-дамп метаданных для Tiki-изображений. Если имя вашей базы данных "tiki" и префикс ваших таблиц "tiki_", то на требуемых данных нужно будет выполнить следующие запросы:
SELECT tiki_images.galleryID, tiki_images.imageID, name, filename FROM tiki.tiki_images, tiki.tiki_images_data WHERE tiki_images.imageID=tiki_images_data.imageID
- Если вы желаете исключить какие-либо страницы из экспорта, чтобы возможно сохранить их приватными, тогда вам нужно с помощью XML-файла точно выделить, какие страницы нужно исключить. Вы можете сделать это вручную или с использованием следующего запроса:
SELECT pageName, groupName, permName FROM tiki.users_objectpermissions, tiki.tiki_pages where objectType='wiki page' and objectId=page_id
- который выберет страницы с любыми ограничениями, хотя вы можете определить особые ограничения. Сценарий исключит любые страницы, чьи имена содержаться в элементе <field name='имяСтраницы'> в этом XML-файле.
- Замечание: используйте mysql команды с флагом '-X' для создания вывода в формате XML.
Запуск сценария
edit- Если вы хотите сохранить какие-либо страницы приватными, вы можете использовать XML-файл, созданный выше, или использовать расширение HNP, чтобы определить их заранее.
- Скопируйте исходный код в файл, озаглавленный tikiToMwiki.py
- Запустите сценарий:
python tikiToMwiki.py [options] <tiki source URL> [tiki export]
- где
- tiki source URL - предшествующий URL для URL-адресов всех tikiwiki страниц, включая замыкающий слеш. Например, 'http://yourdomain.com/tiki/'
- tiki export - TAR-файл, полученный при экспорте из TikiWiki. Если этот параметр не указан, сценарий по умолчанию будет считывать данные из стандартного потока ввода (stdin).
- options - опции
- -o output file - базовое имя файла(ов), которые будут на выходе - сценарий может разделить вывод на множество маленьких файлов так, что выходные файлы будут пронумерованы. Например, если output file - 'wiki.xml', то сценарий создаст файлы, 'wiki0.xml', 'wiki1.xml' и т. д. По умолчанию вывод будет осуществлён в файлы с именем tiki export, где ".tar" будет заменён на ".xml" или в стандартный поток вывода (stdout), если tiki export не задан. Если вы укажете "-o -", то вывод будет направлен в stdout.
- -k image file - XML-файл, содержащий метаданные изображений
- -i tiki image URL - URL-адрес (возможно относительный), используемый для доступа к изображениям, когда используются их идентификаторы или имена. Например, '/UserFiles/Image/tiki/'
- Флаг -n определяет, что страницы будут принудительно создаваться без оглавления. По умолчанию MediaWiki добавляет оглавление на страницы с тремя и более заголовками, вы можете решить не использовать оглавление, чтобы сделать страницы более похожими на оригинальные страницы TikiWiki.
- -j new image URL - новый URL-адрес для файлов изображений (включая замыкающий слеш), если не нужно использовать старое месторасположение изображений. Вы можете задействовать эту опцию, если вам необходимо изменить расположение изображений TikiWiki.
- -m max - максимальный размер новых файлов в Мб. По умолчанию равен 1. Максимальный размер импорта в MediaWiki - 20 Мб.
- -p private pages - XML-файл, содержащий список всех страниц, которые вы желаете исключить из импорта.
- Если ваша вики содержит картинки, которые вам нужны, запустите сценарий с параметрами -i и -k.
- Если вы готовите tiki export файл как аргумент командной строки, любые внутренние ссылки, которые находятся в неправильном регистре будут исправлены (MediaWiki чувствителен к регистру, TikiWiki - нет). Если вы используете stdin для подачи tiki export, то ссылки не могут быть исправлены.
Импорт
edit- Чтобы импортировать в MediaWiki XML-файл(ы) используйте один из этих методов импорта и загрузите каждый XML-файл.
Изменение настроек
edit- Чтобы разрешить внешние изображения только из одного источника скопируйте
$wgAllowExternalImagesFrom = '[image location URL]';
в LocalSettings.php. - Чтобы разрешить любые внешние изображения скопируйте
$wgAllowExternalImages = true;
в LocalSettings.php. - Установите главную страницу путём правки MediaWiki:Mainpage
- Вам нужно будет проставить все ссылки на закачки файлов. Список всех страниц, содержащих эти ссылки будет выведен сценарием.
Если что-то пойдёт не так, вы можете использовать сценарий поддержки deleteBatch, чтобы удалить несколько страниц. Если вы импортируете страницы, которые уже были предварительно импортированы, то эти страницы не будут перезаписаны, вам нужно удалить страницы, а затем импортировать их снова.
Лицензия
editGNU General Public License (GPL)
Автор: Рози Кларксон
Исходный код
edit# Copyright 2008 Rosie Clarkson, Chris Eveleigh development@planningportal.gov.uk
#
# This program is free software: you can redistribute it and/or modify
# it under the terms of the GNU General Public License as published by
# the Free Software Foundation, either version 3 of the License, or
# (at your option) any later version.
#
# This program is distributed in the hope that it will be useful,
# but WITHOUT ANY WARRANTY; without even the implied warranty of
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
# GNU General Public License for more details.
#
# You should have received a copy of the GNU General Public License
# along with this program. If not, see <http://www.gnu.org/licenses/>.
import sys,os,time,tarfile
from email.Parser import Parser
from xml.dom import minidom
import xml.parsers.expat
import xml.sax.saxutils as saxutils
import htmlentitydefs
from HTMLParser import HTMLParser
from urllib import quote,unquote
from urlparse import urljoin
from optparse import OptionParser
#add any other links you may want to map between wikis here
url_maps = {'http://tikiwiki.org/RFCWiki':'http://meta.wikimedia.org/wiki/Cheatsheet'}
#checks for HTML tags
class HTMLChecker(HTMLParser):
def handle_starttag(self, tag, attrs):
global validate
validate = True
return True
def handle_endtag(self, tag):
global validate
return True
#Mediawiki relies on having the right number of new lines between syntax - for example having two new lines in a list starts a new list.
#The elements that do/don't start a new line in HTML can be controlled by the CSS. The CSS used depends on which skin you're using.
class HTMLToMwiki(HTMLParser):
global wikitext
global sourceurl
global pages
global uploads
global headings
link = False #if the parser is within a link
src = ''
innowiki = False
inem = False #if the parser is within italics
instrong = False #if the parser is within bold
inheading = False #if the parser is within a heading
list=0 #whether the parser is within an ordered list (is numeric to deal with nested lists)
litem=0 #whether the parser is within a list item - in order to deal with <p> and <br/> tags in ways that wont break it
ul_count=0 #the number of ul tags used for nested lists
ol_count=0 #the number of ol tags used for nested lists
col_count=0
def handle_starttag(self, tag, attrs):
if self.innowiki:
completeTag='<'+tag
for attr in attrs:
completeTag+=' '+attr[0]+'="'+attr[1]+'"'
wikitext.append(completeTag+'>')
else:
if tag == 'nowiki':
wikitext.append('<nowiki>')
self.innowiki=True
if tag == 'a':
self.src=''
for att in attrs:
if att[0] == 'href':
self.src = att[1]
if self.src in url_maps:
self.src=url_maps[self.src]
#deals with uploads
if self.src.find('tiki-download_file.php')!=-1:
uploads.append(self.src)
self.link=True
if tag == 'ol':
self.ol_count=self.ol_count+1
self.list=self.list+1
if tag == 'ul':
self.ul_count=self.ul_count+1
if tag == 'li':
#append the right no. of # or *s according to the level of nesting
self.litem=self.litem+1
if self.list>0:
wikitext.append('\n'+('#'*self.ol_count))
else:
wikitext.append('\n'+('*'*self.ul_count))
if tag == 'img':
src=''
for att in attrs:
if att[0] == 'src':
src = att[1]
src = quote(src)
#we have several different ways of specifying image sources in our tiki
imagepath = urljoin(sourceurl, src)
if options.newImagepath != '':
imagepath=urljoin(options.newImagepath, src.split('/')[-1])
# the pic tag is used later to identify this as a picture and process the correct mwiki syntax
wikitext.append('<pic>'+imagepath+' ')
if tag == 'table':
wikitext.append('\n{|')
for att in attrs:
#table formatting
wikitext.append(' '+att[0]+'="'+att[1]+'"')
if tag == 'tr':
wikitext.append('\n|-')
self.col_count=0
if tag == 'td':
self.col_count+=1
if self.col_count > 1:
wikitext.append('\n||')
else:
wikitext.append('\n|')
if tag == 'caption':
wikitext.append('\n|+')
if tag in ('strong','b'):
self.instrong=True
wikitext.append("'''")
if tag in('em','i'):
self.inem=True
wikitext.append("''")
if tag =='p':
#new lines in the middle of lists break the list so we have to use the break tag
if self.litem==0:
br = '\n'
else:
br = '<br/>'
#newlines in the middle of formatted text break the formatting so we have to end and restart the formatting around the new lines
if self.inem==True:
br = "''"+br+br+"''"
if self.instrong==True:
br = "'''"+br+br+"'''"
wikitext.append(br)
if tag =='h1':
self.inheading = True
#headings must start on a new line
wikitext.append('\n\n==')
headings.append(tag)
if tag =='h2':
self.inheading = True
wikitext.append('\n\n===')
headings.append(tag)
if tag =='h3':
self.inheading = True
wikitext.append('\n\n====')
headings.append(tag)
def handle_endtag(self, tag):
if tag =='nowiki':
wikitext.append('</nowiki>')
self.innowiki=False
if not self.innowiki:
if self.link==True:
self.src=''
self.link=False
if tag == 'img':
wikitext.append('</pic>')
if tag == 'ol':
self.ol_count=self.ol_count-1
self.list=self.list-1
wikitext.append('\n\n')
if tag == 'ul':
self.ul_count=self.ul_count-1
wikitext.append('\n\n')
if tag == 'li':
self.litem=self.litem-1
if tag == 'table':
wikitext.append('\n\n|}')
if tag in('strong','b'):
self.instrong=False
wikitext.append("'''")
if tag in('em','i'):
self.inem=False
wikitext.append("''")
if tag =='h1':
self.inheading = False
wikitext.append('==\n\n')
if tag =='h2':
self.inheading = False
wikitext.append('===\n\n')
if tag =='h3':
self.inheading = False
wikitext.append('====\n\n')
if tag =='p':
if self.inheading == True:
br=''
elif self.litem==0:
br = '\n'
else:
br = '<br/>'
if self.inem==True:
br = " ''"+br+"''"
if self.instrong==True:
br = " '''"+br+"'''"
wikitext.append(br)
if tag == 'br':
if self.inheading == True:
br=''
elif self.litem==0:
br = '\n'
else:
br = '<br/>'
if self.inem==True:
br = " ''"+br+"''"
if self.instrong==True:
br = " '''"+br+"'''"
wikitext.append(br)
if tag == 'hr':
wikitext.append('\n----\n')
else:
wikitext.append('</'+tag+'>')
#check for symbols which are mwiki syntax when at the start of a line
def check_append(self,data):
stripped = data.lstrip()
for symbol in ('----','*','#','{|','==','===','===='):
if stripped.startswith(symbol):
if wikitext!=[]:
if wikitext[:-1][:-1][-1]=='\n':
if symbol.startswith('=')==False:
data= '<nowiki>'+symbol+'</nowiki>'+stripped[len(symbol):]
else:
if data.find(symbol,len(symbol)):
data= '<nowiki>'+symbol+'</nowiki>'+stripped[len(symbol):]
return data
def handle_data(self,data):
if self.link==True:
#sometimes spaces are in the piped data (probably because of our editor) so we need to make sure we add that before the link
space = ''
if data.startswith(' '):
space = ' '
if self.src.startswith(sourceurl+'tiki-download_file.php'):
wikitext.append(space+'['+self.src+' '+data+']')
elif self.src.startswith(sourceurl):
if self.src.find('page=')!=-1:
ptitle = self.src.split('page=')
page = ptitle[1].replace('+',' ')
for file in pages:
#mwiki is case sensitive to page names and tikiwiki isn't so check that the file actually exists
if file.lower()==page.lower():
page = file
wikitext.append(space+'[['+page+'|'+data+']]')
else:
#catch relative urls
if self.src.startswith('..'):
self.src = urljoin(sourceurl, self.src)
wikitext.append(space+'['+self.src+' '+data+']')
elif self.litem==True:
# if we're in a list put nowiki tags around data begining with * or # so it isnt counted as nesting
if data[0] == '*' or data[0] == '#':
data = '<nowiki>'+data[0]+'</nowiki>'+data[1:]
wikitext.append(data)
else:
data = self.check_append(data)
wikitext.append(data)
def handle_entityref(self,data):
data="&"+data+";"
if self.link==True:
wikitext.append(' '+data)
elif self.litem==True:
wikitext.append(data)
else:
wikitext.append(data)
def handle_charref(self,data):
data="&"+data+";"
if self.link==True:
wikitext.append(' '+data)
elif self.litem==True:
wikitext.append(data)
else:
wikitext.append(data)
def insertImage(word,words):
global image
global imagenames
global imageids
global imagepath
#there are even more ways to specify pic sources in our tiki
if word.find('name=')!=-1:
parts = word.split('=')
try:
filename = imagenames[parts[2]]
except KeyError:
sys.stderr.write(parts[2]+' doesn\'t exist in your image XML file and won\'t be displayed properly\n')
filename=parts[2]
filename = quote(filename)
imagepath = urljoin(urljoin(sourceurl,imageurl), filename)
if options.newImagepath != '':
imagepath=urljoin(options.newImagepath, filename)
words.append('<pic>'+imagepath)
if word.find('id=')!=-1:
parts = word.split('=')
try:
filename = imageids[parts[2]]
except KeyError:
sys.stderr.write( 'The image with ID '+parts[2]+' doesn\'t exist in your image XML file and won\'t be displayed properly\n')
filename=parts[2]
filename = quote(filename)
imagepath = urljoin(urljoin(sourceurl,imageurl), filename)
if options.newImagepath != '':
imagepath=urljoin(options.newImagepath, filename)
words.append('<pic>'+imagepath)
if word.find('}')!=-1:
bracket=word.find('}')
if word[-1]!='}':
if word[bracket+1]!=' ':
word=word.replace('}','</pic> ')
else:
word=word.replace('}','</pic>')
word=word.replace('}','</pic>')
words.append(word)
image = False
return words
def insertLink(word):
global intLink
global page
global words
global pages
first=False
#the link may be split if it contains spaces so it may be sent in parts
brackets=word.find('((')
if brackets != -1:
word = word.replace('((','[[')
page = word[brackets:]
words.append(word[:brackets])
if word.find('))')!=-1:
word = word.replace('))',']]')
end=word.find(']]')
text = word[brackets+2:end]
#again check the filenames to ensure case sensitivity is ok
for file in pages:
if file.lower()==text.lower():
text = file
text = '[['+text+word[end:]
if text[-1]!='\n':
words.append(text+' ')
else:
words.append(text)
page = ''
intLink=False
elif word.find('))')!=-1:
word = word.replace('))',']]')
page = page +' '+word
pipe = page.find('|')
if pipe != -1:
end=pipe
text= page[2:pipe]
else:
brackets=page.find(']]')
end=brackets
text= page[2:brackets]
for file in pages:
if file.lower()==text.lower():
page=page[:2]+file+page[end:]
if page[-1]!='\n':
words.append(page+' ')
else:
words.append(page)
page = ''
intLink=False
else:
first=False
page = page+' '+word
parser = OptionParser()
parser.add_option("-n", "--notableofcontents",
action="store_true", dest="notoc", default=False,
help="disable all automatic contents tables")
parser.add_option("-m", "--maxfilesize",
action="store", type="int", dest="max", default=1,
help="the maximum import file size")
parser.add_option("-j", "--newimageurl",
action="store", type="string", dest="newImagepath", default='',
help="the new location of any images (inc. trailing slash)")
parser.add_option("-i", "--imageurl",
action="store", type="string", dest="imageurl", default='',
help="the relative URL used in tiki to access images (inc. trailing slash)")
parser.add_option("-p", "--privatepages",
action="store", type="string", dest="privatexml", default='',
help="an XML file containing any private pages not to be added to the wiki")
parser.add_option("-o", "--outputfile",
action="store", type="string", dest="outputFile", default='',
help="the name of the output wiki XML file(s)")
parser.add_option("-k", "--imagexml",
action="store", type="string", dest="imagexml", default='',
help="an XML file containing metadata for the images in the tiki")
(options, args) = parser.parse_args()
# the tar file containing the tiki file export - if not specified read from stdin
#stdin doesn't work at the moment and fails after you've used extractfile as this returns nothing
if len(args)>1:
archive = tarfile.open(args[1])
#add all files in the export tar to the list of pages
pages = archive.getnames()
if options.outputFile=='':
outputFile= args[1].replace('.tar','.xml')
else:
outputFile=options.outputFile
else:
pages=[]
#if reading from stdin you can't iterate through the files again so pages is left empty and links are not corrected
archive = tarfile.open(name= sys.stdin.name, mode='r|', fileobj=sys.stdin)
#if you're reading from stdin and don't specify an output file output to stdout
if options.outputFile=='':
options.outputFile='-'
p = Parser()
#multiple files may be created so this is added to the output file string to identify them
fileCount=0
#the string to name all outputfiles the fileCount is added to this
if options.outputFile=='-':
mwikixml=sys.stdout
else:
mwikixml = open(outputFile[:-4]+str(fileCount)+outputFile[-4:], 'wb')
sys.stderr.write('Creating new wiki xml file '+outputFile[:-4]+str(fileCount)+outputFile[-4:])
#the source URL of the tiki - in the form http://[your url]/tiki/
sourceurl = args[0]
#the relative address used to access pictures in TikiWiki
imageurl = options.imageurl
privatePages=[]
if options.privatexml !='':
privateparse = minidom.parse(options.privatexml)
rows=privateparse.getElementsByTagName('row')
for row in rows:
fields = row.getElementsByTagName('field')
for field in fields:
if field.getAttribute('name')=='pageName':
privatePages.append(field.firstChild.data)
#fill the lookup table with the image information
#a file containing an xml dump from the tiki DB
imagenames={}
imageids={}
if options.imagexml !='':
imagexml = options.imagexml
lookup = minidom.parse(imagexml)
rows = lookup.getElementsByTagName('row')
for row in rows:
fields = row.getElementsByTagName('field')
for field in fields:
if field.getAttribute('name')=='name':
iname = field
if field.getAttribute('name')=='filename':
ifile = field
if field.getAttribute('name')=='imageID':
iid = field
imagenames[iname.firstChild.data] = ifile.firstChild.data
imageids[iid.firstChild.data] = ifile.firstChild.data
#list of users who have edited pages
authors = []
filepages = {}
totalSize=0
pagecount = 0
versioncount = 0
#write mediawiki xml file
mwikixml.write('<mediawiki xml:lang="en">\n')
for member in archive:
if member.name not in privatePages:
#add each file in the tiki export directory
tikifile = archive.extractfile(member)
mimefile = p.parse(tikifile)
mwikixml.write('<page>\n')
partcount=0
uploads = []
if mimefile.is_multipart()== False:
partcount =1
for part in mimefile.walk():
outputpage=''
if partcount == 1:
title = unquote(part.get_param('pagename'))
outputpage = outputpage+'<title>'+title+'</title>'
partcount+=1
if ('application/x-tikiwiki','')in part.get_params():
versioncount +=1
headings =[]
outputpage = outputpage+'<revision>\n'
outputpage = outputpage+'<timestamp>'+time.strftime('%Y-%m-%dT%H:%M:%SZ',time.gmtime(eval(part.get_param('lastmodified'))))+'</timestamp>\n'
outputpage = outputpage+'<contributor><username>'+part.get_param('author')+'</username></contributor>\n'
# add author to list of contributors to be output at the end
if part.get_param('author')not in authors:
authors.append(part.get_param('author'))
outputpage = outputpage+'<text xml:space="preserve">\n'
mwiki = ''
#we add the tiki description to the page in bold and italic (much as it was in tikiwiki)
# the </br> is used to ensure that these strings are followed by a new line and are converted to \n later
if part.get_param('description') not in(None,''):
mwiki+="'''''"+unquote(part.get_param('description'))+"'''''</br>"
#then add the table of contents (or specify none)
if options.notoc: mwiki=mwiki + "__NOTOC__</br>"
else: mwiki=mwiki + "__TOC__</br>"
mwiki += part.get_payload().decode('utf-8')
#does the validator do anything?!
validate = False
validator = HTMLChecker()
validator.feed(mwiki)
#fixes pages that end up on a single line (these were probably created by our WYSWYG editor being used on windows and linux)
if not validate:
mwiki=mwiki.replace('\t', ' ')
mwiki=mwiki.replace(' ', ' ')
mwiki=mwiki.replace('<', '<')
mwiki=mwiki.replace('>', '>')
mwiki=mwiki.replace('\r\n\r\n', '<br/><br/>')
#double escape < and > entities so that < is not unescaped to < which is then treated as HTML tags
#mwiki=mwiki.replace('&', '&amp;')
mwiki=mwiki.replace('&lt;', '&amp;lt;')
mwiki=mwiki.replace('&gt;', '&amp;gt;')
mwiki=mwiki.replace('<', '&lt;')
mwiki=mwiki.replace('>', '&gt;')
mwiki=mwiki.replace(u'\ufffd', ' ')
# unescape XML entities
entitydefs = dict([ ("&"+k+";", unichr(v)) for k, v in htmlentitydefs.name2codepoint.items() ])
entitydefs.pop("&")
entitydefs.pop(">")
entitydefs.pop("<")
mwiki=saxutils.unescape(mwiki, entitydefs)
# replace tiki syntax that will be interpreted badly with tiki syntax the parser will understand
#empty formatting tags will be converted to many "'"s which then confuses mwiki
mwiki = mwiki.replace('[[','~np~[~/np~')
#need to replace no wiki tags here in case any html/xml is inside them that we want to keep
mwiki=mwiki.replace('~np~', '<nowiki>')
mwiki=mwiki.replace('~/np~', '</nowiki>')
mwiki=mwiki.replace('<em></em>', '')
mwiki=mwiki.replace('<em><em>', '<em>')
mwiki=mwiki.replace('</em></em>', '</em>')
mwiki=mwiki.replace('<strong></strong>', '')
mwiki=mwiki.replace('<strong><strong>', '<strong>')
mwiki=mwiki.replace('</strong></strong>', '</strong>')
mwiki=mwiki.replace('\n', ' ')
mwiki=mwiki.replace('</br>', '\n')
mwiki=mwiki.replace('</br>', '\n')
mwiki=mwiki.replace('\r', ' ')
mwiki=mwiki.replace('\t', ' ')
wikitext=[]
#convert any HTML tags to mediawiki syntax
htmlConverter = HTMLToMwiki()
htmlConverter.feed(mwiki)
mwiki = ''.join(wikitext)
#replace tiki syntax with mwiki
mwiki=mwiki.replace('__',"'''")
#split the text into lines and then strings to parse
words=[]
image=False
intLink=False
box=False
page = ''
for line in mwiki.splitlines(True):
spl = line.split(' ')
for word in spl:
# handle boxes
if word.find('^')!=-1:
hats = word.count('^')
for hat in range(1, hats+1):
index = word.find('^')
if box == False:
word = word[:index]+'<pre>'+word[index+1:]
box=True
else:
word = word[:index]+'</pre>'+word[index+1:]
box=False
if word.find('{img')!= -1:
image = True
if word.find('((')!=-1:
intLink = True
if image:
words = insertImage(word,words)
elif intLink:
insertLink(word)
else:
#stops mwiki automatically creating links (which can then be broken by formatting
if (word.find('http')!=-1 or word.find('ftp://')!=-1) and word.find('[')==-1 and word.find(']')==-1 and word.find('<pic>')==-1 and word.find('<pre>')==-1 and word.find('</pre>')==-1 and box==False:
index = 0
format = False
formatted = ''
for char in word:
index+=1
if char == "'":
if not format:
format= True
formatted = formatted+'</nowiki>'
else:
if format:
format = False
formatted = formatted+'<nowiki>'
formatted =formatted+char
word = '<nowiki>'+formatted+'</nowiki>'
if word != '':
if word[-1].find('\n')!=-1:
words.append(word)
else:
words.append(word+' ')
mwiki = ''.join(words)
#get rid of pic placeholder tags
mwiki=mwiki.replace("<pic>", "")
mwiki=mwiki.replace("</pic>", "")
#make sure there are no single newlines - mediawiki just ignores them. Replace multiple lines with single and then single with double.
while mwiki.find("\n\n") != -1 or mwiki.find("\n \n") != -1:
mwiki=mwiki.replace("\n\n", "\n")
mwiki=mwiki.replace("\n \n", "\n")
mwiki=mwiki.replace('\n', '\n\n')
#replace multiple lines with single where they would break formatting - such as in a list
mwiki=mwiki.replace('\n\n#', '\n#')
mwiki=mwiki.replace('\n\n*', '\n*')
mwiki=mwiki.replace('*<br/>', '*')
mwiki=mwiki.replace('#<br/>', '#')
mwiki = mwiki.lstrip('\n')
lines=[]
for line in mwiki.splitlines(True):
if line.startswith(':'):
line='<nowiki>:</nowiki>'+line[1:]
lines.append(line)
mwiki=''.join(lines)
entitydefs = dict([ (unichr(k), "&"+v+";") for k, v in htmlentitydefs.codepoint2name.items() ])
entitydefs.pop('<')
entitydefs.pop('>')
entitydefs.pop('&')
mwiki=saxutils.escape(mwiki, entitydefs)
for n in range(len(mwiki)):
if (mwiki[n]< " ")and(mwiki[n]!='\n')and(mwiki[n]!='\r')and(mwiki[n]!='\t'):
mwiki=mwiki[:n]+"?"+mwiki[n+1:]
mwiki=mwiki.replace('amp;lt;','lt;')
mwiki=mwiki.replace('amp;gt;','gt;')
while mwiki.find(" ") != -1:
mwiki=mwiki.replace(" ", " ")
mwiki=mwiki.replace('<!--','<!--')
mwiki=mwiki.replace('-->','-->')
# the table of contents will have been seen as bold formatting
if len(headings)>=3:
mwiki = mwiki.replace("'''TOC'''", '__TOC__')
mwiki = mwiki.replace("'''NOTOC'''", '__NOTOC__')
else:
mwiki = mwiki.replace("'''TOC'''\n\n", '')
mwiki = mwiki.replace("'''NOTOC'''\n\n", '')
mwiki = mwiki.replace("'''TOC'''\n", '')#if it's before bullets/numbers the second \n will have gone
mwiki = mwiki.replace("'''NOTOC'''\n", '')
outputpage= outputpage+mwiki+'</text>\n'
outputpage=outputpage+'</revision>\n'
outputpage=outputpage.encode('utf-8')
totalSize+=len(outputpage)
#mediawiki has a maximum import file size so start a new file after that limit
if options.outputFile!='-':
if totalSize > options.max*1024*1024:
totalSize=len(outputpage)
mwikixml.write('</page>')
mwikixml.write('</mediawiki>')
fileCount += 1
mwikixml = open(outputFile[:-4]+str(fileCount)+outputFile[-4:], 'wb')
sys.stderr.write('Creating new wiki xml file '+outputFile[:-4]+str(fileCount)+outputFile[-4:]+'\n')
mwikixml.write('<mediawiki xml:lang="en">\n')
#if this isn't the first part write page and title
mwikixml.write('<page>\n')
mwikixml.write('<title>'+title+'</title>')
mwikixml.write(outputpage)
else:
mwikixml.write(outputpage)
else:
if partcount != 1:
if stdout == False:
sys.stderr.write(str(part.get_param('pagename'))+' version '+str(part.get_param('version'))+' wasn\'t counted')
mwikixml.write('</page>')
if uploads != []:
filepages[title] = uploads
pagecount+=1
mwikixml.write('</mediawiki>')
sys.stderr.write('number of pages = '+str(pagecount)+' number of versions = '+str(versioncount)+'\n')
sys.stderr.write('with contributions by '+str(authors)+'\n')
sys.stderr.write('and file uploads on these pages: '+str(filepages.keys())+'\n')