source: documentViewer/MpdlXmlTextServer.py @ 554:c56bc63436de

Last change on this file since 554:c56bc63436de was 554:c56bc63436de, checked in by casties, 12 years ago

fixed problem with empty div tags in fulltext.

File size: 22.1 KB
Line 
1from OFS.SimpleItem import SimpleItem
2from Products.PageTemplates.PageTemplateFile import PageTemplateFile
3
4import xml.etree.ElementTree as ET
5
6import re
7import logging
8import urllib
9import urlparse
10import base64
11
12from SrvTxtUtils import getInt, getText, getHttpData
13
14def serialize(node):
15    """returns a string containing an XML snippet of node"""
16    s = ET.tostring(node, 'UTF-8')
17    # snip off XML declaration
18    if s.startswith('<?xml'):
19        i = s.find('?>')
20        return s[i+3:]
21
22    return s
23
24
25class MpdlXmlTextServer(SimpleItem):
26    """TextServer implementation for MPDL-XML eXist server"""
27    meta_type="MPDL-XML TextServer"
28
29    manage_options=(
30        {'label':'Config','action':'manage_changeMpdlXmlTextServerForm'},
31       )+SimpleItem.manage_options
32   
33    manage_changeMpdlXmlTextServerForm = PageTemplateFile("zpt/manage_changeMpdlXmlTextServer", globals())
34       
35    def __init__(self,id,title="",serverUrl="http://mpdl-text.mpiwg-berlin.mpg.de/mpdl/interface/", serverName=None, timeout=40):
36        """constructor"""
37        self.id=id
38        self.title=title
39        self.timeout = timeout
40        if serverName is None:
41            self.serverUrl = serverUrl
42        else:
43            self.serverUrl = "http://%s/mpdl/interface/"%serverName
44       
45    def getHttpData(self, url, data=None):
46        """returns result from url+data HTTP request"""
47        return getHttpData(url,data,timeout=self.timeout)
48   
49    def getServerData(self, method, data=None):
50        """returns result from text server for method+data"""
51        url = self.serverUrl+method
52        return getHttpData(url,data,timeout=self.timeout)
53
54
55    def getPlacesOnPage(self, docinfo=None, pn=None):
56        """Returns list of GIS places of page pn"""
57        docpath = docinfo.get('textURLPath',None)
58        if not docpath:
59            return None
60
61        places=[]
62        text=self.getServerData("xpath.xql", "document=%s&xpath=//place&pn=%s"%(docpath,pn))
63        dom = ET.fromstring(text)
64        result = dom.findall(".//resultPage/place")
65        for l in result:
66            id = l.get("id")
67            name = l.text
68            place = {'id': id, 'name': name}
69            places.append(place)
70
71        return places
72   
73         
74    def getTextInfo(self, mode='', docinfo=None):
75        """reads document info, including page concordance, from text server"""
76        logging.debug("getTextInfo mode=%s"%mode)
77        if mode not in ['toc', 'figures', '']:
78            mode = ''
79        # check cached info
80        if mode:
81            # cached toc-request?
82            if 'full_%s'%mode in docinfo:
83                return docinfo
84           
85        else:
86            # no toc-request
87            if 'numTextPages' in docinfo:
88                return docinfo
89               
90        docpath = docinfo.get('textURLPath', None)
91        if docpath is None:
92            logging.error("getTextInfo: no textURLPath!")
93            return docinfo
94               
95        # we need to set a result set size
96        pagesize = 10000
97        pn = 1
98        # fetch docinfo           
99        pagexml = self.getServerData("doc-info.xql","document=%s&info=%s&pageSize=%s&pn=%s"%(docpath,mode,pagesize,pn))
100        dom = ET.fromstring(pagexml)
101        # all info in tag <document>
102        doc = dom.find("document")
103        if doc is None:
104            logging.error("getTextInfo: unable to find document-tag!")
105        else:
106            # go through all child elements
107            for tag in doc:
108                name = tag.tag
109                # numTextPages
110                if name == 'countPages':
111                    np = getInt(tag.text)                   
112                    if np > 0:
113                        docinfo['numTextPages'] = np
114                   
115                # numFigureEntries
116                elif name == 'countFigureEntries':
117                    docinfo['numFigureEntries'] = getInt(tag.text)
118                   
119                # numTocEntries
120                elif name == 'countTocEntries':
121                    # WTF: s1 = int(s)/30+1
122                    docinfo['numTocEntries'] = getInt(tag.text)
123                   
124                # numPlaces
125                elif name == 'countPlaces':
126                    docinfo['numPlaces'] = getInt(tag.text)
127                   
128                # pageNumbers
129                elif name == 'pageNumbers':
130                    # contains tags with page numbers
131                    # <pn><n>4</n><no>4</no><non/></pn>
132                    # n=scan number, no=original page no, non=normalized original page no
133                    # pageNumbers is a dict indexed by scan number
134                    pages = {}
135                    for pn in tag:
136                        page = {}
137                        n = 0
138                        for p in pn:
139                            if p.tag == 'n':
140                                n = getInt(p.text)
141                                page['pn'] = n
142                            elif p.tag == 'no':
143                                page['no'] = p.text
144                            elif p.tag == 'non':
145                                page['non'] = p.text
146                               
147                        if n > 0:
148                            pages[n] = page
149                       
150                    docinfo['pageNumbers'] = pages
151                    #logging.debug("got pageNumbers=%s"%repr(pages))
152                               
153                # toc
154                elif name == 'toc':
155                    # contains tags with table of contents/figures
156                    # <toc-entry><page>13</page><level>3</level><content>Chapter I</content><level-string>1.</level-string><real-level>1</real-level></toc-entry>
157                    tocs = []
158                    for te in tag:
159                        toc = {}
160                        for t in te:
161                            if t.tag == 'page':
162                                toc['pn'] = getInt(t.text)
163                            elif t.tag == 'level':
164                                toc['level'] = t.text
165                            elif t.tag == 'content':
166                                toc['content'] = t.text
167                            elif t.tag == 'level-string':
168                                toc['level-string'] = t.text
169                            elif t.tag == 'real-level':
170                                toc['real-level'] = t.text
171                               
172                        tocs.append(toc)
173                   
174                    # save as full_toc/full_figures
175                    docinfo['full_%s'%mode] = tocs
176
177        return docinfo
178       
179         
180    def processPageInfo(self, dom, docinfo, pageinfo):
181        """processes page info divs from dom and stores in docinfo and pageinfo"""
182        # assume first second level div is pageMeta
183        alldivs = dom.find("div")
184       
185        if alldivs is None or alldivs.get('class', '') != 'pageMeta':
186            logging.error("processPageInfo: pageMeta div not found!")
187            return
188       
189        for div in alldivs:
190            dc = div.get('class')
191           
192            # pageNumberOrig 
193            if dc == 'pageNumberOrig':
194                pageinfo['pageNumberOrig'] = div.text
195               
196            # pageNumberOrigNorm
197            elif dc == 'pageNumberOrigNorm':
198                pageinfo['pageNumberOrigNorm'] = div.text
199               
200            # pageHeaderTitle
201            elif dc == 'pageHeaderTitle':
202                pageinfo['pageHeaderTitle'] = div.text
203                       
204        #logging.debug("processPageInfo: pageinfo=%s"%repr(pageinfo))
205        return
206         
207           
208    def getTextPage(self, mode="text", pn=1, docinfo=None, pageinfo=None):
209        """returns single page from fulltext"""
210       
211        logging.debug("getTextPage mode=%s, pn=%s"%(mode,pn))
212        # check for cached text -- but ideally this shouldn't be called twice
213        if pageinfo.has_key('textPage'):
214            logging.debug("getTextPage: using cached text")
215            return pageinfo['textPage']
216       
217        docpath = docinfo.get('textURLPath', None)
218        if not docpath:
219            return None
220       
221        # just checking
222        if pageinfo['current'] != pn:
223            logging.warning("getTextPage: current!=pn!")
224           
225        # stuff for constructing full urls
226        selfurl = docinfo['viewerUrl']
227        textParams = {'document': docpath,
228                      'pn': pn}
229        if 'characterNormalization' in pageinfo:
230            textParams['characterNormalization'] = pageinfo['characterNormalization']
231       
232        if not mode:
233            # default is dict
234            mode = 'text'
235
236        modes = mode.split(',')
237        # check for multiple layers
238        if len(modes) > 1:
239            logging.debug("getTextPage: more than one mode=%s"%mode)
240                       
241        # search mode
242        if 'search' in modes:
243            # add highlighting
244            highlightQuery = pageinfo.get('highlightQuery', None)
245            if highlightQuery:
246                textParams['highlightQuery'] = highlightQuery
247                textParams['highlightElement'] = pageinfo.get('highlightElement', '')
248                textParams['highlightElementPos'] = pageinfo.get('highlightElementPos', '')
249               
250            # ignore mode in the following
251            modes.remove('search')
252                           
253        # pundit mode
254        punditMode = False
255        if 'pundit' in modes:
256            punditMode = True
257            # ignore mode in the following
258            modes.remove('pundit')
259                           
260        # other modes don't combine
261        if 'dict' in modes:
262            # dict is called textPollux in the backend
263            textmode = 'textPollux'
264        elif 'xml' in modes:
265            # xml mode
266            textmode = 'xml'
267            textParams['characterNormalization'] = 'orig'
268        elif 'gis' in modes:
269            textmode = 'gis'
270        else:
271            # text is default mode
272            textmode = 'text'
273       
274        textParams['mode'] = textmode
275       
276        # fetch the page
277        pagexml = self.getServerData("page-fragment.xql",urllib.urlencode(textParams))
278        dom = ET.fromstring(pagexml)
279        # extract additional info
280        self.processPageInfo(dom, docinfo, pageinfo)
281        # page content is in <div class="pageContent">
282        pagediv = None
283        # ElementTree 1.2 in Python 2.6 can't do div[@class='pageContent']
284        # so we look at the second level divs
285        alldivs = dom.findall('div')
286        for div in alldivs:
287            dc = div.get('class')
288            # page content div
289            if dc == 'pageContent':
290                pagediv = div
291                break
292       
293        # plain text mode
294        if textmode == "text":
295            # get full url assuming documentViewer is parent
296            selfurl = self.getLink()
297            if pagediv is not None:
298                if punditMode:
299                    pagediv = self.addPunditAttributes(pagediv, pageinfo, docinfo)
300                   
301                # fix empty div tags
302                divs = pagediv.findall('.//div')
303                for d in divs:
304                    if len(d) == 0 and not d.text:
305                        # make empty divs non-empty
306                        d.text = ' '
307                   
308                # check all a-tags
309                links = pagediv.findall('.//a')
310                for l in links:
311                    href = l.get('href')
312                    if href and href.startswith('#note-'):
313                        href = href.replace('#note-',"%s#note-"%selfurl)
314                        l.set('href', href)
315
316                return serialize(pagediv)
317           
318        # text-with-links mode
319        elif textmode == "textPollux":
320            if pagediv is not None:
321                viewerurl = docinfo['viewerUrl']
322                selfurl = self.getLink()
323                if punditMode:
324                    pagediv = self.addPunditAttributes(pagediv, pageinfo, docinfo)
325                   
326                # fix empty div tags
327                divs = pagediv.findall('.//div')
328                for d in divs:
329                    if len(d) == 0 and not d.text:
330                        # make empty divs non-empty
331                        d.text = ' '
332                   
333                # check all a-tags
334                links = pagediv.findall(".//a")
335                for l in links:
336                    href = l.get('href')
337                   
338                    if href:
339                        # is link with href
340                        linkurl = urlparse.urlparse(href)
341                        #logging.debug("getTextPage: linkurl=%s"%repr(linkurl))
342                        if linkurl.path.endswith('GetDictionaryEntries'):
343                            #TODO: replace wordInfo page
344                            # is dictionary link - change href (keeping parameters)
345                            #l.set('href', href.replace('http://mpdl-proto.mpiwg-berlin.mpg.de/mpdl/interface/lt/wordInfo.xql','%s/template/viewer_wordinfo'%viewerurl))
346                            # add target to open new page
347                            l.set('target', '_blank')
348                                                         
349                        if href.startswith('#note-'):
350                            # note link
351                            l.set('href', href.replace('#note-',"%s#note-"%selfurl))
352                             
353                return serialize(pagediv)
354           
355        # xml mode
356        elif textmode == "xml":
357            if pagediv is not None:
358                return serialize(pagediv)
359           
360        # pureXml mode WTF?
361        elif textmode == "pureXml":
362            if pagediv is not None:
363                return serialize(pagediv)
364                 
365        # gis mode
366        elif textmode == "gis":
367            if pagediv is not None:
368                # fix empty div tags
369                divs = pagediv.findall('.//div')
370                for d in divs:
371                    if len(d) == 0 and not d.text:
372                        # make empty divs non-empty
373                        d.text = ' '
374                   
375                # check all a-tags
376                links = pagediv.findall(".//a")
377                # add our URL as backlink
378                selfurl = self.getLink()
379                doc = base64.b64encode(selfurl)
380                for l in links:
381                    href = l.get('href')
382                    if href:
383                        if href.startswith('http://mappit.mpiwg-berlin.mpg.de'):
384                            l.set('href', re.sub(r'doc=[\w+/=]+', 'doc=%s'%doc, href))
385                            l.set('target', '_blank')
386                           
387                return serialize(pagediv)
388                   
389        return None
390   
391    def addPunditAttributes(self, pagediv, pageinfo, docinfo):
392        """add about attributes for pundit annotation tool"""
393        textid = docinfo.get('DRI', "fn=%s"%docinfo.get('documentPath', '???'))
394        pn = pageinfo.get('pn', '1')
395        #  TODO: use pn as well?
396        # check all div-tags
397        divs = pagediv.findall(".//div")
398        for d in divs:
399            id = d.get('id')
400            if id:
401                d.set('about', "http://echo.mpiwg-berlin.mpg.de/%s/pn=%s/#%s"%(textid,pn,id))
402                cls = d.get('class','')
403                cls += ' pundit-content'
404                d.set('class', cls.strip())
405
406        return pagediv
407
408    def getSearchResults(self, mode, query=None, pageinfo=None, docinfo=None):
409        """loads list of search results and stores XML in docinfo"""
410       
411        logging.debug("getSearchResults mode=%s query=%s"%(mode, query))
412        if mode == "none":
413            return docinfo
414             
415        cachedQuery = docinfo.get('cachedQuery', None)
416        if cachedQuery is not None:
417            # cached search result
418            if cachedQuery == '%s_%s'%(mode,query):
419                # same query
420                return docinfo
421           
422            else:
423                # different query
424                del docinfo['resultSize']
425                del docinfo['resultXML']
426       
427        # cache query
428        docinfo['cachedQuery'] = '%s_%s'%(mode,query)
429       
430        # fetch full results
431        docpath = docinfo['textURLPath']
432        params = {'document': docpath,
433                  'mode': 'text',
434                  'queryType': mode,
435                  'query': query,
436                  'queryResultPageSize': 1000,
437                  'queryResultPN': 1,
438                  'characterNormalization': pageinfo.get('characterNormalization', 'reg')}
439        pagexml = self.getServerData("doc-query.xql",urllib.urlencode(params))
440        #pagexml = self.getServerData("doc-query.xql","document=%s&mode=%s&queryType=%s&query=%s&queryResultPageSize=%s&queryResultPN=%s&s=%s&viewMode=%s&characterNormalization=%s&highlightElementPos=%s&highlightElement=%s&highlightQuery=%s"%(docpath, 'text', queryType, urllib.quote(query), pagesize, pn, s, viewMode,characterNormalization, highlightElementPos, highlightElement, urllib.quote(highlightQuery)))
441        dom = ET.fromstring(pagexml)
442        # page content is in <div class="queryResultPage">
443        pagediv = None
444        # ElementTree 1.2 in Python 2.6 can't do div[@class='queryResultPage']
445        alldivs = dom.findall("div")
446        for div in alldivs:
447            dc = div.get('class')
448            # page content div
449            if dc == 'queryResultPage':
450                pagediv = div
451               
452            elif dc == 'queryResultHits':
453                docinfo['resultSize'] = getInt(div.text)
454
455        if pagediv is not None:
456            # store XML in docinfo
457            docinfo['resultXML'] = ET.tostring(pagediv, 'UTF-8')
458
459        return docinfo
460   
461
462    def getResultsPage(self, mode="text", query=None, pn=None, start=None, size=None, pageinfo=None, docinfo=None):
463        """returns single page from the table of contents"""
464        logging.debug("getResultsPage mode=%s, pn=%s"%(mode,pn))
465        # get (cached) result
466        self.getSearchResults(mode=mode, query=query, pageinfo=pageinfo, docinfo=docinfo)
467           
468        resultxml = docinfo.get('resultXML', None)
469        if not resultxml:
470            logging.error("getResultPage: unable to find resultXML")
471            return "Error: no result!"
472       
473        if size is None:
474            size = pageinfo.get('resultPageSize', 10)
475           
476        if start is None:
477            start = (pn - 1) * size
478
479        fullresult = ET.fromstring(resultxml)
480       
481        if fullresult is not None:
482            # paginate
483            first = start-1
484            len = size
485            del fullresult[:first]
486            del fullresult[len:]
487            tocdivs = fullresult
488           
489            # check all a-tags
490            links = tocdivs.findall(".//a")
491            for l in links:
492                href = l.get('href')
493                if href:
494                    # assume all links go to pages
495                    linkUrl = urlparse.urlparse(href)
496                    linkParams = urlparse.parse_qs(linkUrl.query)
497                    # take some parameters
498                    params = {'pn': linkParams['pn'],
499                              'highlightQuery': linkParams.get('highlightQuery',''),
500                              'highlightElement': linkParams.get('highlightElement',''),
501                              'highlightElementPos': linkParams.get('highlightElementPos','')
502                              }
503                    url = self.getLink(params=params)
504                    l.set('href', url)
505                       
506            return serialize(tocdivs)
507       
508        return "ERROR: no results!"
509
510
511    def getToc(self, mode='text', docinfo=None):
512        """returns list of table of contents from docinfo"""
513        logging.debug("getToc mode=%s"%mode)
514        if mode == 'text':
515            queryType = 'toc'
516        else:
517            queryType = mode
518           
519        if not 'full_%s'%queryType in docinfo:
520            # get new toc
521            docinfo = self.getTextInfo(queryType, docinfo)
522           
523        return docinfo.get('full_%s'%queryType, [])
524
525    def getTocPage(self, mode='text', pn=None, start=None, size=None, pageinfo=None, docinfo=None):
526        """returns single page from the table of contents"""
527        logging.debug("getTocPage mode=%s, pn=%s start=%s size=%s"%(mode,repr(pn),repr(start),repr(size)))
528        fulltoc = self.getToc(mode=mode, docinfo=docinfo)
529        if len(fulltoc) < 1:
530            logging.error("getTocPage: unable to find toc!")
531            return "Error: no table of contents!"       
532       
533        if size is None:
534            size = pageinfo.get('tocPageSize', 30)
535           
536        if start is None:
537            start = (pn - 1) * size
538
539        # paginate
540        first = (start - 1)
541        last = first + size
542        tocs = fulltoc[first:last]
543        tp = '<div>'
544        for toc in tocs:
545            pageurl = self.getLink('pn', toc['pn'])
546            tp += '<div class="tocline">'
547            tp += '<div class="toc name">[%s %s]</div>'%(toc['level-string'], toc['content'])
548            tp += '<div class="toc float right page"><a href="%s">Page: %s</a></div>'%(pageurl, toc['pn'])
549            tp += '</div>\n'
550           
551        tp += '</div>\n'
552       
553        return tp
554           
555   
556    def manage_changeMpdlXmlTextServer(self,title="",serverUrl="http://mpdl-text.mpiwg-berlin.mpg.de/mpdl/interface/",timeout=40,RESPONSE=None):
557        """change settings"""
558        self.title=title
559        self.timeout = timeout
560        self.serverUrl = serverUrl
561        if RESPONSE is not None:
562            RESPONSE.redirect('manage_main')
563       
564# management methods
565def manage_addMpdlXmlTextServerForm(self):
566    """Form for adding"""
567    pt = PageTemplateFile("zpt/manage_addMpdlXmlTextServer", globals()).__of__(self)
568    return pt()
569
570def manage_addMpdlXmlTextServer(self,id,title="",serverUrl="http://mpdl-text.mpiwg-berlin.mpg.de/mpdl/interface/",timeout=40,RESPONSE=None):
571#def manage_addMpdlXmlTextServer(self,id,title="",serverUrl="http://mpdl-text.mpiwg-berlin.mpg.de:30030/mpdl/interface/",timeout=40,RESPONSE=None):   
572    """add zogiimage"""
573    newObj = MpdlXmlTextServer(id,title,serverUrl,timeout)
574    self.Destination()._setObject(id, newObj)
575    if RESPONSE is not None:
576        RESPONSE.redirect('manage_main')
577       
578       
Note: See TracBrowser for help on using the repository browser.