source: documentViewer/MpdlXmlTextServer.py @ 551:f558624d3f73

Last change on this file since 551:f558624d3f73 was 551:f558624d3f73, checked in by casties, 12 years ago

add attributes for pundit.

File size: 22.0 KB
Line 
1from OFS.SimpleItem import SimpleItem
2from Products.PageTemplates.PageTemplateFile import PageTemplateFile
3
4import xml.etree.ElementTree as ET
5
6import re
7import logging
8import urllib
9import urlparse
10import base64
11
12from SrvTxtUtils import getInt, getText, getHttpData
13
14def serialize(node):
15    """returns a string containing an XML snippet of node"""
16    s = ET.tostring(node, 'UTF-8')
17    # snip off XML declaration
18    if s.startswith('<?xml'):
19        i = s.find('?>')
20        return s[i+3:]
21
22    return s
23
24
25class MpdlXmlTextServer(SimpleItem):
26    """TextServer implementation for MPDL-XML eXist server"""
27    meta_type="MPDL-XML TextServer"
28
29    manage_options=(
30        {'label':'Config','action':'manage_changeMpdlXmlTextServerForm'},
31       )+SimpleItem.manage_options
32   
33    manage_changeMpdlXmlTextServerForm = PageTemplateFile("zpt/manage_changeMpdlXmlTextServer", globals())
34       
35    def __init__(self,id,title="",serverUrl="http://mpdl-text.mpiwg-berlin.mpg.de/mpdl/interface/", serverName=None, timeout=40):
36        """constructor"""
37        self.id=id
38        self.title=title
39        self.timeout = timeout
40        if serverName is None:
41            self.serverUrl = serverUrl
42        else:
43            self.serverUrl = "http://%s/mpdl/interface/"%serverName
44       
45    def getHttpData(self, url, data=None):
46        """returns result from url+data HTTP request"""
47        return getHttpData(url,data,timeout=self.timeout)
48   
49    def getServerData(self, method, data=None):
50        """returns result from text server for method+data"""
51        url = self.serverUrl+method
52        return getHttpData(url,data,timeout=self.timeout)
53
54
55    def getPlacesOnPage(self, docinfo=None, pn=None):
56        """Returns list of GIS places of page pn"""
57        docpath = docinfo.get('textURLPath',None)
58        if not docpath:
59            return None
60
61        places=[]
62        text=self.getServerData("xpath.xql", "document=%s&xpath=//place&pn=%s"%(docpath,pn))
63        dom = ET.fromstring(text)
64        result = dom.findall(".//resultPage/place")
65        for l in result:
66            id = l.get("id")
67            name = l.text
68            place = {'id': id, 'name': name}
69            places.append(place)
70
71        return places
72   
73         
74    def getTextInfo(self, mode='', docinfo=None):
75        """reads document info, including page concordance, from text server"""
76        logging.debug("getTextInfo mode=%s"%mode)
77        if mode not in ['toc', 'figures', '']:
78            mode = ''
79        # check cached info
80        if mode:
81            # cached toc-request?
82            if 'full_%s'%mode in docinfo:
83                return docinfo
84           
85        else:
86            # no toc-request
87            if 'numTextPages' in docinfo:
88                return docinfo
89               
90        docpath = docinfo.get('textURLPath', None)
91        if docpath is None:
92            logging.error("getTextInfo: no textURLPath!")
93            return docinfo
94               
95        # we need to set a result set size
96        pagesize = 10000
97        pn = 1
98        # fetch docinfo           
99        pagexml = self.getServerData("doc-info.xql","document=%s&info=%s&pageSize=%s&pn=%s"%(docpath,mode,pagesize,pn))
100        dom = ET.fromstring(pagexml)
101        # all info in tag <document>
102        doc = dom.find("document")
103        if doc is None:
104            logging.error("getTextInfo: unable to find document-tag!")
105        else:
106            # go through all child elements
107            for tag in doc:
108                name = tag.tag
109                # numTextPages
110                if name == 'countPages':
111                    np = getInt(tag.text)                   
112                    if np > 0:
113                        docinfo['numTextPages'] = np
114                   
115                # numFigureEntries
116                elif name == 'countFigureEntries':
117                    docinfo['numFigureEntries'] = getInt(tag.text)
118                   
119                # numTocEntries
120                elif name == 'countTocEntries':
121                    # WTF: s1 = int(s)/30+1
122                    docinfo['numTocEntries'] = getInt(tag.text)
123                   
124                # numPlaces
125                elif name == 'countPlaces':
126                    docinfo['numPlaces'] = getInt(tag.text)
127                   
128                # pageNumbers
129                elif name == 'pageNumbers':
130                    # contains tags with page numbers
131                    # <pn><n>4</n><no>4</no><non/></pn>
132                    # n=scan number, no=original page no, non=normalized original page no
133                    # pageNumbers is a dict indexed by scan number
134                    pages = {}
135                    for pn in tag:
136                        page = {}
137                        n = 0
138                        for p in pn:
139                            if p.tag == 'n':
140                                n = getInt(p.text)
141                                page['pn'] = n
142                            elif p.tag == 'no':
143                                page['no'] = p.text
144                            elif p.tag == 'non':
145                                page['non'] = p.text
146                               
147                        if n > 0:
148                            pages[n] = page
149                       
150                    docinfo['pageNumbers'] = pages
151                    #logging.debug("got pageNumbers=%s"%repr(pages))
152                               
153                # toc
154                elif name == 'toc':
155                    # contains tags with table of contents/figures
156                    # <toc-entry><page>13</page><level>3</level><content>Chapter I</content><level-string>1.</level-string><real-level>1</real-level></toc-entry>
157                    tocs = []
158                    for te in tag:
159                        toc = {}
160                        for t in te:
161                            if t.tag == 'page':
162                                toc['pn'] = getInt(t.text)
163                            elif t.tag == 'level':
164                                toc['level'] = t.text
165                            elif t.tag == 'content':
166                                toc['content'] = t.text
167                            elif t.tag == 'level-string':
168                                toc['level-string'] = t.text
169                            elif t.tag == 'real-level':
170                                toc['real-level'] = t.text
171                               
172                        tocs.append(toc)
173                   
174                    # save as full_toc/full_figures
175                    docinfo['full_%s'%mode] = tocs
176
177        return docinfo
178       
179         
180    def processPageInfo(self, dom, docinfo, pageinfo):
181        """processes page info divs from dom and stores in docinfo and pageinfo"""
182        # assume first second level div is pageMeta
183        alldivs = dom.find("div")
184       
185        if alldivs is None or alldivs.get('class', '') != 'pageMeta':
186            logging.error("processPageInfo: pageMeta div not found!")
187            return
188       
189        for div in alldivs:
190            dc = div.get('class')
191           
192            # pageNumberOrig 
193            if dc == 'pageNumberOrig':
194                pageinfo['pageNumberOrig'] = div.text
195               
196            # pageNumberOrigNorm
197            elif dc == 'pageNumberOrigNorm':
198                pageinfo['pageNumberOrigNorm'] = div.text
199               
200            # pageHeaderTitle
201            elif dc == 'pageHeaderTitle':
202                pageinfo['pageHeaderTitle'] = div.text
203                       
204        #logging.debug("processPageInfo: pageinfo=%s"%repr(pageinfo))
205        return
206         
207           
208    def getTextPage(self, mode="text", pn=1, docinfo=None, pageinfo=None):
209        """returns single page from fulltext"""
210       
211        logging.debug("getTextPage mode=%s, pn=%s"%(mode,pn))
212        # check for cached text -- but ideally this shouldn't be called twice
213        if pageinfo.has_key('textPage'):
214            logging.debug("getTextPage: using cached text")
215            return pageinfo['textPage']
216       
217        docpath = docinfo.get('textURLPath', None)
218        if not docpath:
219            return None
220       
221        # just checking
222        if pageinfo['current'] != pn:
223            logging.warning("getTextPage: current!=pn!")
224           
225        # stuff for constructing full urls
226        selfurl = docinfo['viewerUrl']
227        textParams = {'document': docpath,
228                      'pn': pn}
229        if 'characterNormalization' in pageinfo:
230            textParams['characterNormalization'] = pageinfo['characterNormalization']
231       
232        if not mode:
233            # default is dict
234            mode = 'text'
235
236        modes = mode.split(',')
237        # check for multiple layers
238        if len(modes) > 1:
239            logging.debug("getTextPage: more than one mode=%s"%mode)
240                       
241        # search mode
242        if 'search' in modes:
243            # add highlighting
244            highlightQuery = pageinfo.get('highlightQuery', None)
245            if highlightQuery:
246                textParams['highlightQuery'] = highlightQuery
247                textParams['highlightElement'] = pageinfo.get('highlightElement', '')
248                textParams['highlightElementPos'] = pageinfo.get('highlightElementPos', '')
249               
250            # ignore mode in the following
251            modes.remove('search')
252                           
253        # pundit mode
254        punditMode = False
255        if 'pundit' in modes:
256            punditMode = True
257            # ignore mode in the following
258            modes.remove('pundit')
259                           
260        # other modes don't combine
261        if 'dict' in modes:
262            # dict is called textPollux in the backend
263            textmode = 'textPollux'
264        elif 'xml' in modes:
265            # xml mode
266            textmode = 'xml'
267            textParams['characterNormalization'] = 'orig'
268        elif 'gis' in modes:
269            textmode = 'gis'
270        else:
271            # text is default mode
272            textmode = 'text'
273       
274        textParams['mode'] = textmode
275       
276        # fetch the page
277        pagexml = self.getServerData("page-fragment.xql",urllib.urlencode(textParams))
278        dom = ET.fromstring(pagexml)
279        # extract additional info
280        self.processPageInfo(dom, docinfo, pageinfo)
281        # page content is in <div class="pageContent">
282        pagediv = None
283        # ElementTree 1.2 in Python 2.6 can't do div[@class='pageContent']
284        # so we look at the second level divs
285        alldivs = dom.findall("div")
286        for div in alldivs:
287            dc = div.get('class')
288            # page content div
289            if dc == 'pageContent':
290                pagediv = div
291                break
292       
293        # plain text mode
294        if textmode == "text":
295            # get full url assuming documentViewer is parent
296            selfurl = self.getLink()
297            if pagediv is not None:
298                if punditMode:
299                    pagediv = self.addPunditAttributes(pagediv, pageinfo, docinfo)
300                   
301                # check all a-tags
302                links = pagediv.findall(".//a")
303                for l in links:
304                    href = l.get('href')
305                    if href and href.startswith('#note-'):
306                        href = href.replace('#note-',"%s#note-"%selfurl)
307                        l.set('href', href)
308
309                return serialize(pagediv)
310           
311        # text-with-links mode
312        elif textmode == "textPollux":
313            if pagediv is not None:
314                viewerurl = docinfo['viewerUrl']
315                selfurl = self.getLink()
316                if punditMode:
317                    pagediv = self.addPunditAttributes(pagediv, pageinfo, docinfo)
318                   
319                # check all a-tags
320                links = pagediv.findall(".//a")
321                for l in links:
322                    href = l.get('href')
323                   
324                    if href:
325                        # is link with href
326                        linkurl = urlparse.urlparse(href)
327                        #logging.debug("getTextPage: linkurl=%s"%repr(linkurl))
328                        if linkurl.path.endswith('GetDictionaryEntries'):
329                            #TODO: replace wordInfo page
330                            # is dictionary link - change href (keeping parameters)
331                            #l.set('href', href.replace('http://mpdl-proto.mpiwg-berlin.mpg.de/mpdl/interface/lt/wordInfo.xql','%s/template/viewer_wordinfo'%viewerurl))
332                            # add target to open new page
333                            l.set('target', '_blank')
334                                                         
335                        # TODO: is this needed?
336#                        if href.startswith('http://mpdl-proto.mpiwg-berlin.mpg.de/mpdl/lt/lemma.xql'):
337#                            selfurl = self.absolute_url()
338#                            l.set('href', href.replace('http://mpdl-proto.mpiwg-berlin.mpg.de/mpdl/lt/lemma.xql','%s/head_main_lemma'%selfurl))
339#                            l.set('target', '_blank')
340#                            l.set('onclick',"popupWin = window.open(this.href, 'InfoWindow', 'menubar=no, location,width=500,height=600,top=180, left=700, toolbar=no, scrollbars=1'); return false;")
341#                            l.set('ondblclick', 'popupWin.focus();')   
342                   
343                        if href.startswith('#note-'):
344                            # note link
345                            l.set('href', href.replace('#note-',"%s#note-"%selfurl))
346                             
347                return serialize(pagediv)
348           
349        # xml mode
350        elif textmode == "xml":
351            if pagediv is not None:
352                return serialize(pagediv)
353           
354        # pureXml mode WTF?
355        elif textmode == "pureXml":
356            if pagediv is not None:
357                return serialize(pagediv)
358                 
359        # gis mode
360        elif textmode == "gis":
361            if pagediv is not None:
362                # check all a-tags
363                links = pagediv.findall(".//a")
364                # add our URL as backlink
365                selfurl = self.getLink()
366                doc = base64.b64encode(selfurl)
367                for l in links:
368                    href = l.get('href')
369                    if href:
370                        if href.startswith('http://mappit.mpiwg-berlin.mpg.de'):
371                            l.set('href', re.sub(r'doc=[\w+/=]+', 'doc=%s'%doc, href))
372                            l.set('target', '_blank')
373                           
374                return serialize(pagediv)
375                   
376        return None
377   
378    def addPunditAttributes(self, pagediv, pageinfo, docinfo):
379        """add about attributes for pundit annotation tool"""
380        textid = docinfo.get('DRI', "fn=%s"%docinfo.get('documentPath', '???'))
381        pn = pageinfo.get('pn', '1')
382        #  TODO: use pn as well?
383        # check all div-tags
384        divs = pagediv.findall(".//div")
385        for d in divs:
386            id = d.get('id')
387            if id:
388                d.set('about', "http://echo.mpiwg-berlin.mpg.de/%s/pn=%s/#%s"%(textid,pn,id))
389                cls = d.get('class','')
390                cls += ' pundit-content'
391                d.set('class', cls.strip())
392
393        return pagediv
394
395    def getSearchResults(self, mode, query=None, pageinfo=None, docinfo=None):
396        """loads list of search results and stores XML in docinfo"""
397       
398        logging.debug("getSearchResults mode=%s query=%s"%(mode, query))
399        if mode == "none":
400            return docinfo
401             
402        cachedQuery = docinfo.get('cachedQuery', None)
403        if cachedQuery is not None:
404            # cached search result
405            if cachedQuery == '%s_%s'%(mode,query):
406                # same query
407                return docinfo
408           
409            else:
410                # different query
411                del docinfo['resultSize']
412                del docinfo['resultXML']
413       
414        # cache query
415        docinfo['cachedQuery'] = '%s_%s'%(mode,query)
416       
417        # fetch full results
418        docpath = docinfo['textURLPath']
419        params = {'document': docpath,
420                  'mode': 'text',
421                  'queryType': mode,
422                  'query': query,
423                  'queryResultPageSize': 1000,
424                  'queryResultPN': 1,
425                  'characterNormalization': pageinfo.get('characterNormalization', 'reg')}
426        pagexml = self.getServerData("doc-query.xql",urllib.urlencode(params))
427        #pagexml = self.getServerData("doc-query.xql","document=%s&mode=%s&queryType=%s&query=%s&queryResultPageSize=%s&queryResultPN=%s&s=%s&viewMode=%s&characterNormalization=%s&highlightElementPos=%s&highlightElement=%s&highlightQuery=%s"%(docpath, 'text', queryType, urllib.quote(query), pagesize, pn, s, viewMode,characterNormalization, highlightElementPos, highlightElement, urllib.quote(highlightQuery)))
428        dom = ET.fromstring(pagexml)
429        # page content is in <div class="queryResultPage">
430        pagediv = None
431        # ElementTree 1.2 in Python 2.6 can't do div[@class='queryResultPage']
432        alldivs = dom.findall("div")
433        for div in alldivs:
434            dc = div.get('class')
435            # page content div
436            if dc == 'queryResultPage':
437                pagediv = div
438               
439            elif dc == 'queryResultHits':
440                docinfo['resultSize'] = getInt(div.text)
441
442        if pagediv is not None:
443            # store XML in docinfo
444            docinfo['resultXML'] = ET.tostring(pagediv, 'UTF-8')
445
446        return docinfo
447   
448
449    def getResultsPage(self, mode="text", query=None, pn=None, start=None, size=None, pageinfo=None, docinfo=None):
450        """returns single page from the table of contents"""
451        logging.debug("getResultsPage mode=%s, pn=%s"%(mode,pn))
452        # get (cached) result
453        self.getSearchResults(mode=mode, query=query, pageinfo=pageinfo, docinfo=docinfo)
454           
455        resultxml = docinfo.get('resultXML', None)
456        if not resultxml:
457            logging.error("getResultPage: unable to find resultXML")
458            return "Error: no result!"
459       
460        if size is None:
461            size = pageinfo.get('resultPageSize', 10)
462           
463        if start is None:
464            start = (pn - 1) * size
465
466        fullresult = ET.fromstring(resultxml)
467       
468        if fullresult is not None:
469            # paginate
470            first = start-1
471            len = size
472            del fullresult[:first]
473            del fullresult[len:]
474            tocdivs = fullresult
475           
476            # check all a-tags
477            links = tocdivs.findall(".//a")
478            for l in links:
479                href = l.get('href')
480                if href:
481                    # assume all links go to pages
482                    linkUrl = urlparse.urlparse(href)
483                    linkParams = urlparse.parse_qs(linkUrl.query)
484                    # take some parameters
485                    params = {'pn': linkParams['pn'],
486                              'highlightQuery': linkParams.get('highlightQuery',''),
487                              'highlightElement': linkParams.get('highlightElement',''),
488                              'highlightElementPos': linkParams.get('highlightElementPos','')
489                              }
490                    url = self.getLink(params=params)
491                    l.set('href', url)
492                       
493            return serialize(tocdivs)
494       
495        return "ERROR: no results!"
496
497
498    def getToc(self, mode='text', docinfo=None):
499        """returns list of table of contents from docinfo"""
500        logging.debug("getToc mode=%s"%mode)
501        if mode == 'text':
502            queryType = 'toc'
503        else:
504            queryType = mode
505           
506        if not 'full_%s'%queryType in docinfo:
507            # get new toc
508            docinfo = self.getTextInfo(queryType, docinfo)
509           
510        return docinfo.get('full_%s'%queryType, [])
511
512    def getTocPage(self, mode='text', pn=None, start=None, size=None, pageinfo=None, docinfo=None):
513        """returns single page from the table of contents"""
514        logging.debug("getTocPage mode=%s, pn=%s start=%s size=%s"%(mode,repr(pn),repr(start),repr(size)))
515        fulltoc = self.getToc(mode=mode, docinfo=docinfo)
516        if len(fulltoc) < 1:
517            logging.error("getTocPage: unable to find toc!")
518            return "Error: no table of contents!"       
519       
520        if size is None:
521            size = pageinfo.get('tocPageSize', 30)
522           
523        if start is None:
524            start = (pn - 1) * size
525
526        # paginate
527        first = (start - 1)
528        last = first + size
529        tocs = fulltoc[first:last]
530        tp = '<div>'
531        for toc in tocs:
532            pageurl = self.getLink('pn', toc['pn'])
533            tp += '<div class="tocline">'
534            tp += '<div class="toc name">[%s %s]</div>'%(toc['level-string'], toc['content'])
535            tp += '<div class="toc float right page"><a href="%s">Page: %s</a></div>'%(pageurl, toc['pn'])
536            tp += '</div>\n'
537           
538        tp += '</div>\n'
539       
540        return tp
541           
542   
543    def manage_changeMpdlXmlTextServer(self,title="",serverUrl="http://mpdl-text.mpiwg-berlin.mpg.de/mpdl/interface/",timeout=40,RESPONSE=None):
544        """change settings"""
545        self.title=title
546        self.timeout = timeout
547        self.serverUrl = serverUrl
548        if RESPONSE is not None:
549            RESPONSE.redirect('manage_main')
550       
551# management methods
552def manage_addMpdlXmlTextServerForm(self):
553    """Form for adding"""
554    pt = PageTemplateFile("zpt/manage_addMpdlXmlTextServer", globals()).__of__(self)
555    return pt()
556
557def manage_addMpdlXmlTextServer(self,id,title="",serverUrl="http://mpdl-text.mpiwg-berlin.mpg.de/mpdl/interface/",timeout=40,RESPONSE=None):
558#def manage_addMpdlXmlTextServer(self,id,title="",serverUrl="http://mpdl-text.mpiwg-berlin.mpg.de:30030/mpdl/interface/",timeout=40,RESPONSE=None):   
559    """add zogiimage"""
560    newObj = MpdlXmlTextServer(id,title,serverUrl,timeout)
561    self.Destination()._setObject(id, newObj)
562    if RESPONSE is not None:
563        RESPONSE.redirect('manage_main')
564       
565       
Note: See TracBrowser for help on using the repository browser.