A FORÇA QUE O LOGO TEM EM SEU NEGÓCIO O primeiro contato que seu cliente tem com a sua empresa, é seu LOGO. Ele é a porta de entrada para transmitir visualmente quem você é, o que produz ou vende. Muitos ignoram sua força e por isso não desfrutam dos resultados inegáveis que ele oferece. Por isso daremos 7 dicas imbatíveis para lhe ajudar na hora de redesenhar ou pensar seu logo do zero!
Issues in the first version of WatchKit framework, provide real examples on the development of Apple Watch extension.
The topic will include the discussion and comparison of the first and second versions of Apple watchOS architecture. Present a technical information about communication between the main app and Apple Watch. New possibilities of open API for creating Apple Watch native applications.
A FORÇA QUE O LOGO TEM EM SEU NEGÓCIO O primeiro contato que seu cliente tem com a sua empresa, é seu LOGO. Ele é a porta de entrada para transmitir visualmente quem você é, o que produz ou vende. Muitos ignoram sua força e por isso não desfrutam dos resultados inegáveis que ele oferece. Por isso daremos 7 dicas imbatíveis para lhe ajudar na hora de redesenhar ou pensar seu logo do zero!
Issues in the first version of WatchKit framework, provide real examples on the development of Apple Watch extension.
The topic will include the discussion and comparison of the first and second versions of Apple watchOS architecture. Present a technical information about communication between the main app and Apple Watch. New possibilities of open API for creating Apple Watch native applications.
Creating an Open Archival Information System compliant archive for CERNISSEL
Nowadays, we constantly produce data in an unprecedented scale at various do mains. In the context of research data, large organizations, like CERN, produce information which is of significant importance and which cannot be reproduced in the future. It is therefore our responsibility to make sure that this information is preserved in a way that it will be available to the future generations.
This challenge, which is broadly referred to as digital preservation, has drawn the attention of several researchers and led to the design of a standard for long-term dig ital data storage, known as the Open Archival Information System (OAIS) standard. Several systems have been developed towards this direction, however these solu tions were either not fully-compliant with the OAIS standard, some were short term projects that have been decommissioned or they were not open-source and available to the research community. In this context, CERN proposed the Digital Memory project, a digital archiving initiative that should allow researchers to archive their data in a way that it will be accessible in the future.
In this thesis, which is part of the Digital Memory project, we confront the afore mentioned challenges by proposing an architecture that is fully OAIS-compliant, is integrated with CERN repositories and supports transparency, as the user can easily manage and monitor the actions performed on archival packages. Initially, we implement a tool that can be used to harvest data from various CERN sources like CDS, Indico, CERN Open Data, Gitlab and CodiMD in an OAIS-compliant format called Submission Information Package (SIP). This package can be supplied to the platform in order to create the actual archival packages that can be stored for long term preservation. These packages contain additional metadata and normalization of content that will guarantee long term survival of the information content. Additionally, we show how easy it is for a user to create, monitor and group their archives by using the User Interface. The platform can be easily deployed by anyone on Open shift with the use of Helm charts. Concerning our evaluation we discuss how the the performance of the platform can be improved and we show that the resulting packages as well as the platform as a whole is fully OAIS-compliant.
Δημιουργία ενός Ανοιχτού Αρχειακού Πληροφοριακού Συστήματος για το CERNISSEL
Στις μέρες μας, ο ρυθμός παραγωγής πληροφοριών είναι άνευ προηγουμένου. Από την ίδρυσή του, το CERN παράγει πληροφορίες που είναι σημαντικές για την επιστημονική κοινότητα και δεν μπορούν να αναπαραχθούν στο μέλλον. Είναι ευθύνη ενός οργανισμού σαν το CERN να διασφαλίσει ότι αυτές οι πληροφορίες διατηρούνται με τρόπο που θα τις κάνει διαθέσιμες στις μελλοντικές γενιές.
Το Digital Memory Project δημιουργήθηκε για να λύσει αυτό το πρόβλημα αναπτύσσοντας ένα ψηφιακό αρχείο για το CERN, συμβατό με το πρωτόκολλο Open Archival Information System (OAIS). Με τη χρήση αυτού του συστήματος, οι ερευνητές θα μπορούν να αρχειοθετούν τα δεδομένα τους τα οποία θα επεξεργάζονται και θα αποθηκεύονται με τρόπο που να μεγιστοποιεί τις πιθανότητες ότι αυτά τα δεδομένα θα είναι προσβάσιμα στο μέλλον. Σε αντίθεση με άλλα υλοποιημένα συστήματα, η προτεινόμενη λύση είναι πλήρως συμβατή με το OAIS, είναι ενσωματωμένη με υπάρχοντα αποθετήρια του CERN ενώ ο χρήστης μπορεί εύκολα να διαχειρίζεται και να παρακολουθεί τις ενέργειες που εκτελούνται σε ένα αρχειακό πακέτο. Οι διαθέσιμες λύσεις είτε δεν συμμορφώνονται πλήρως με το πρότυπο, είτε αποτελούσαν βραχυπρόθεσμα έργα που δεν συντηρούνται ή δεν είναι ανοιχτού κώδικα και διαθέσιμα με αυτό τον τρόπο στην ερευνητική κοινότητα.
Σε αυτή την εργασία, θα παρουσιάσουμε μια υλοποίηση ενός αρχείου συμβατό με το πρότυπο OAIS για το CERN. Αρχικά, υλοποιούμε ένα εργαλείο που μπορεί να χρησιμοποιηθεί για τη συλλογή δεδομένων από διάφορες πηγές του CERN όπως τα CDS, Indico, CERN Open Data, Gitlab και CodiMD σε μορφή συμβατή με το OAIS που ονομάζεται Submission Information Package (SIP). Αυτό το πακέτο μπορεί να χρησιμοποιηθεί από την πλατφόρμα προκειμένου να δημιουργηθούν τα πακέτα αρχειοθέτησης που μπορούν να αποθηκευτούν για μακροχρόνια διατήρηση. Αυτά τα πακέτα περιέχουν πρόσθετα μεταδεδομένα και κανονικοποίηση του περιεχομένου που θα εγγυηθούν τη μακροπρόθεσμη επιβίωση του περιεχομένου πληροφοριών. Επιπλέον, δείχνουμε πόσο εύκολο είναι για έναν χρήστη να δημιουργήσει, να παρακολουθεί και να ομαδοποιήσει τα αρχεία του χρησιμοποιώντας τη διεπαφή χρήστη που αναπτύχθηκε. Η πλατφόρμα μπορεί εύκολα να αναπτυχθεί και να χρησιμοποιηθεί από οποιονδήποτε μέσω του Openshift. Τέλος, συζητάμε πώς μπορεί να βελτιωθεί η απόδοση της πλατφόρμας και δείχνουμε ότι τα πακέτα που προκύπτουν καθώς και η πλατφόρμα στο σύνολό της είναι πλήρως συμβατή με το OAIS.
Υλοποίηση εργαλείου πλήρους στοίβας σε περιβάλλον Kubernetes για την αυτοµατο...ISSEL
Η µετάβαση των τεχνολογιών του διαδικτύου προς αρχιτεκτονικές µικροϋπηρεσιών (microservices) και η ανάπτυξη του ∆ιαδικτύου των Πραγµάτων (Internet of Things - IoT) συνέβαλλαν σηµαντικά στην αύξηση των αναγκών για νέες µεθόδους αποδοτικής επικοι νωνίας µεταξύ ανοµοιογενών και διανεµηµένων συστηµάτων. Οι µεθοδολογίες διαµεσο λάβησης µηνυµάτων (brokered messaging) λειτουργούν καλύτερα από τις τεχνολογίες / προσεγγίσεις REST (Representational State Transfer) και RPC (Remmote Procedure Call) σε συστήµατα επικοινωνίας παραγωγών-καταναλωτών (µηνυµάτων) όπου είναι επιθυµητή τόσο η µετάδοση µεγάλου όγκου δεδοµένων σε υψηλούς ϱυθµούς όπως και η απεµπλοκή των υποσυστηµάτων των παραγωγών και των καταναλωτών. Μια ελαφριά και αξιόπιστη τεχνολογία που προσφέρει τα πλεονεκτήµατα της µεσολάβησης µηνυµάτων είναι το RabbitMQ. Με τη χρήση αυτής, µπορούν να χτιστούν πολύπλοκα και αποδοτικά συστήµατα ειδικά σε συνθήκες ασύγχρονης επικοινωνίας, αναξιόπιστων δικτύων και σε περιβάλλοντα εφαρµογών µεγάλων δεδοµένων (big data). Η παρούσα διπλωµατική εστιάζει στην ανάπτυξη ενός εργαλείου πλήρους στοίβας (full-stack), το οποίο κάνει χρήση της τεχνολογίας διαµεσολάβησης µηνυµάτων για την εφαρµογή ϕίλτρων στα διακινούµενα µηνύµατα του συστήµατος. Η αυτοµατοποίηση αυτών των λειτουργιών µέσω του εργαλείου, καθιστά τα ωφέλη των εµπλεκόµενων τεχνολογιών προσβάσιµα από τους χρήστες, ανεξάρτητα από το ϐαθµό της εµπειρίας τους στις συγκεκριµένες τεχνολογίες. Η επικοινωνία των µηνυµάτων επιτελείται µέσω του διακοµιστή Rabbitmq Server, ο οποίος εφαρµόζει την τεχνολογία διαµεσολάβησης µηνυµάτων. Τέλος για τη διευκόλυνση της διαχείρισης ολόκληρου του συστήµατος, αυτό ενσωµατώθηκε στο πλαίσιο της τεχνολογίας Kubernetes, η οποία προσφέρει την αυτοµατοποίηση της ενορχήστρωσης των κοµµατιών του συστήµατος. Για τη σύσταση του περιβάλλοντος Kubernetes επιλέχθηκε η τεχνολογία minikube καθώς προσφέρει εύκο λη και γρήγορη δηµιουργία ενός περιβάλλοντος Kubernetes. Η απόδοση του συστήµατος ελέγθηκε για διαφορετικές τιµές του ϕορτίου εισαγωγής µηνυµάτων και των εφαρµοζόµενων ϕίλτρων. Τα µεγέθη που µετρήθηκαν αφορούν την συχνότητα εισόδου µηνυµάτων, τη συχνότητα κατανάλωσης µηνυµάτων, τη συχνότητα καταγραφής µηνυµάτων στη Βάση ∆εδοµένων και τον αριθµό αποθηκευµένων δεδο µένων στις ουρές του διαµεσολαβητή. Από τα πειράµατα εξάγεται το συµπέρασµα ότι είναι ιδιαίτερα σηµαντική η επιλο γή του κατάλληλου αριθµού εφαρµοζόµενων ϕίλτρων σύµφωνα µε τους διαθέσιµους πόρους επεξεργαστικής ισχύος και µνήµης του συστήµατος.
Creating an Open Archival Information System compliant archive for CERNISSEL
Nowadays, we constantly produce data in an unprecedented scale at various do mains. In the context of research data, large organizations, like CERN, produce information which is of significant importance and which cannot be reproduced in the future. It is therefore our responsibility to make sure that this information is preserved in a way that it will be available to the future generations.
This challenge, which is broadly referred to as digital preservation, has drawn the attention of several researchers and led to the design of a standard for long-term dig ital data storage, known as the Open Archival Information System (OAIS) standard. Several systems have been developed towards this direction, however these solu tions were either not fully-compliant with the OAIS standard, some were short term projects that have been decommissioned or they were not open-source and available to the research community. In this context, CERN proposed the Digital Memory project, a digital archiving initiative that should allow researchers to archive their data in a way that it will be accessible in the future.
In this thesis, which is part of the Digital Memory project, we confront the afore mentioned challenges by proposing an architecture that is fully OAIS-compliant, is integrated with CERN repositories and supports transparency, as the user can easily manage and monitor the actions performed on archival packages. Initially, we implement a tool that can be used to harvest data from various CERN sources like CDS, Indico, CERN Open Data, Gitlab and CodiMD in an OAIS-compliant format called Submission Information Package (SIP). This package can be supplied to the platform in order to create the actual archival packages that can be stored for long term preservation. These packages contain additional metadata and normalization of content that will guarantee long term survival of the information content. Additionally, we show how easy it is for a user to create, monitor and group their archives by using the User Interface. The platform can be easily deployed by anyone on Open shift with the use of Helm charts. Concerning our evaluation we discuss how the the performance of the platform can be improved and we show that the resulting packages as well as the platform as a whole is fully OAIS-compliant.
Δημιουργία ενός Ανοιχτού Αρχειακού Πληροφοριακού Συστήματος για το CERNISSEL
Στις μέρες μας, ο ρυθμός παραγωγής πληροφοριών είναι άνευ προηγουμένου. Από την ίδρυσή του, το CERN παράγει πληροφορίες που είναι σημαντικές για την επιστημονική κοινότητα και δεν μπορούν να αναπαραχθούν στο μέλλον. Είναι ευθύνη ενός οργανισμού σαν το CERN να διασφαλίσει ότι αυτές οι πληροφορίες διατηρούνται με τρόπο που θα τις κάνει διαθέσιμες στις μελλοντικές γενιές.
Το Digital Memory Project δημιουργήθηκε για να λύσει αυτό το πρόβλημα αναπτύσσοντας ένα ψηφιακό αρχείο για το CERN, συμβατό με το πρωτόκολλο Open Archival Information System (OAIS). Με τη χρήση αυτού του συστήματος, οι ερευνητές θα μπορούν να αρχειοθετούν τα δεδομένα τους τα οποία θα επεξεργάζονται και θα αποθηκεύονται με τρόπο που να μεγιστοποιεί τις πιθανότητες ότι αυτά τα δεδομένα θα είναι προσβάσιμα στο μέλλον. Σε αντίθεση με άλλα υλοποιημένα συστήματα, η προτεινόμενη λύση είναι πλήρως συμβατή με το OAIS, είναι ενσωματωμένη με υπάρχοντα αποθετήρια του CERN ενώ ο χρήστης μπορεί εύκολα να διαχειρίζεται και να παρακολουθεί τις ενέργειες που εκτελούνται σε ένα αρχειακό πακέτο. Οι διαθέσιμες λύσεις είτε δεν συμμορφώνονται πλήρως με το πρότυπο, είτε αποτελούσαν βραχυπρόθεσμα έργα που δεν συντηρούνται ή δεν είναι ανοιχτού κώδικα και διαθέσιμα με αυτό τον τρόπο στην ερευνητική κοινότητα.
Σε αυτή την εργασία, θα παρουσιάσουμε μια υλοποίηση ενός αρχείου συμβατό με το πρότυπο OAIS για το CERN. Αρχικά, υλοποιούμε ένα εργαλείο που μπορεί να χρησιμοποιηθεί για τη συλλογή δεδομένων από διάφορες πηγές του CERN όπως τα CDS, Indico, CERN Open Data, Gitlab και CodiMD σε μορφή συμβατή με το OAIS που ονομάζεται Submission Information Package (SIP). Αυτό το πακέτο μπορεί να χρησιμοποιηθεί από την πλατφόρμα προκειμένου να δημιουργηθούν τα πακέτα αρχειοθέτησης που μπορούν να αποθηκευτούν για μακροχρόνια διατήρηση. Αυτά τα πακέτα περιέχουν πρόσθετα μεταδεδομένα και κανονικοποίηση του περιεχομένου που θα εγγυηθούν τη μακροπρόθεσμη επιβίωση του περιεχομένου πληροφοριών. Επιπλέον, δείχνουμε πόσο εύκολο είναι για έναν χρήστη να δημιουργήσει, να παρακολουθεί και να ομαδοποιήσει τα αρχεία του χρησιμοποιώντας τη διεπαφή χρήστη που αναπτύχθηκε. Η πλατφόρμα μπορεί εύκολα να αναπτυχθεί και να χρησιμοποιηθεί από οποιονδήποτε μέσω του Openshift. Τέλος, συζητάμε πώς μπορεί να βελτιωθεί η απόδοση της πλατφόρμας και δείχνουμε ότι τα πακέτα που προκύπτουν καθώς και η πλατφόρμα στο σύνολό της είναι πλήρως συμβατή με το OAIS.
Υλοποίηση εργαλείου πλήρους στοίβας σε περιβάλλον Kubernetes για την αυτοµατο...ISSEL
Η µετάβαση των τεχνολογιών του διαδικτύου προς αρχιτεκτονικές µικροϋπηρεσιών (microservices) και η ανάπτυξη του ∆ιαδικτύου των Πραγµάτων (Internet of Things - IoT) συνέβαλλαν σηµαντικά στην αύξηση των αναγκών για νέες µεθόδους αποδοτικής επικοι νωνίας µεταξύ ανοµοιογενών και διανεµηµένων συστηµάτων. Οι µεθοδολογίες διαµεσο λάβησης µηνυµάτων (brokered messaging) λειτουργούν καλύτερα από τις τεχνολογίες / προσεγγίσεις REST (Representational State Transfer) και RPC (Remmote Procedure Call) σε συστήµατα επικοινωνίας παραγωγών-καταναλωτών (µηνυµάτων) όπου είναι επιθυµητή τόσο η µετάδοση µεγάλου όγκου δεδοµένων σε υψηλούς ϱυθµούς όπως και η απεµπλοκή των υποσυστηµάτων των παραγωγών και των καταναλωτών. Μια ελαφριά και αξιόπιστη τεχνολογία που προσφέρει τα πλεονεκτήµατα της µεσολάβησης µηνυµάτων είναι το RabbitMQ. Με τη χρήση αυτής, µπορούν να χτιστούν πολύπλοκα και αποδοτικά συστήµατα ειδικά σε συνθήκες ασύγχρονης επικοινωνίας, αναξιόπιστων δικτύων και σε περιβάλλοντα εφαρµογών µεγάλων δεδοµένων (big data). Η παρούσα διπλωµατική εστιάζει στην ανάπτυξη ενός εργαλείου πλήρους στοίβας (full-stack), το οποίο κάνει χρήση της τεχνολογίας διαµεσολάβησης µηνυµάτων για την εφαρµογή ϕίλτρων στα διακινούµενα µηνύµατα του συστήµατος. Η αυτοµατοποίηση αυτών των λειτουργιών µέσω του εργαλείου, καθιστά τα ωφέλη των εµπλεκόµενων τεχνολογιών προσβάσιµα από τους χρήστες, ανεξάρτητα από το ϐαθµό της εµπειρίας τους στις συγκεκριµένες τεχνολογίες. Η επικοινωνία των µηνυµάτων επιτελείται µέσω του διακοµιστή Rabbitmq Server, ο οποίος εφαρµόζει την τεχνολογία διαµεσολάβησης µηνυµάτων. Τέλος για τη διευκόλυνση της διαχείρισης ολόκληρου του συστήµατος, αυτό ενσωµατώθηκε στο πλαίσιο της τεχνολογίας Kubernetes, η οποία προσφέρει την αυτοµατοποίηση της ενορχήστρωσης των κοµµατιών του συστήµατος. Για τη σύσταση του περιβάλλοντος Kubernetes επιλέχθηκε η τεχνολογία minikube καθώς προσφέρει εύκο λη και γρήγορη δηµιουργία ενός περιβάλλοντος Kubernetes. Η απόδοση του συστήµατος ελέγθηκε για διαφορετικές τιµές του ϕορτίου εισαγωγής µηνυµάτων και των εφαρµοζόµενων ϕίλτρων. Τα µεγέθη που µετρήθηκαν αφορούν την συχνότητα εισόδου µηνυµάτων, τη συχνότητα κατανάλωσης µηνυµάτων, τη συχνότητα καταγραφής µηνυµάτων στη Βάση ∆εδοµένων και τον αριθµό αποθηκευµένων δεδο µένων στις ουρές του διαµεσολαβητή. Από τα πειράµατα εξάγεται το συµπέρασµα ότι είναι ιδιαίτερα σηµαντική η επιλο γή του κατάλληλου αριθµού εφαρµοζόµενων ϕίλτρων σύµφωνα µε τους διαθέσιµους πόρους επεξεργαστικής ισχύος και µνήµης του συστήµατος.
Nowadays, the concept of software has prevailed in all aspects of human daily life, offering
significant solutions to a wide variety of issues. The need for producing reliable and functional
software within short timeframes that can adapt to possible changes is constantly increasing.
In recent years, there has been significant research activity in the field of software
development process optimization, while the vast availability of open-source software projects
in repositories such as GitHub makes accessing large volumes of code data easy. Leveraging
this information can serve as a catalyst for creating useful tools that can greatly accelerate the
software development process while improving communication and collaboration among
development teams.
This thesis presents an integrated system for automated source code formatting using
machine learning techniques. The primary goal of the system is to detect and correct
formatting errors that deviate from the standards set by the development team, ensuring its
readability and thus facilitating easier maintenance. The system utilizes LSTM deep neural
network models in combination with N-gram statistical language models for detecting
formatting errors, while a specific mechanism for correcting these errors is proposed.
Additionally, an evaluation mechanism for code formatting is proposed, aiming to quantify this
abstract concept.
The system designed within the scope of this thesis is evaluated on 8000 Java code files
obtained from the CodRep 2019 competition. Through the observation of the final results, we
conclude that the system performs effectively in both detecting and correcting formatting
errors.
Μία περιεκτική εισαγωγή στo Rails framework γραμμένη εξ'ολοκλήρου στα ελληνικά.
Έκδοση 1.0,
12 Ιαν 2007
Δημητρακόπουλος Νικόλαος,
Άδεια Χρήσης Ελεύθερης Τεκμηρίωσης GNU
Στα πλαίσια του ACM Student Chapter του Πανεπιστημίου Πελοποννήσου και του Ruby Hellenic Users Group
Generated data volumes are constantly increasing, dictating the need for more sophisticated algorithms and mathematical models to achieve faster and more accurate processing of this data volume. The execution requirements of these algorithms/models often require increased computational resources which entails increased energy and costs. It is evident that, as data continue to grow, performing such processing algorithms on robotic vehicles that do not have the computational power and the energy autonomy will be impossible.
This diploma thesis focuses on the implementation of a system that aims to offload some robotic vehicle operations into a computer cluster. This way, robots can execute algorithms that, due to computational resource and energy requirements, would be impossible. The proposed system allows developers that do not have robotic programming skills, to treat robotic systems under a software as a service prism.
This is a very short presentation in Greek, dealing with Document Management Systems based on J2EE technology. Presented to Greek Free / Open Source Software Society(GFOSS) Open Days for developers.
Similar to e-Idenity-and-e-Government_ELAK-Code-Camp-Lecture_III (20)
1. i4M Lab
1
ΕΛΛΑΚ Μονάδες Αριστείας (ΜΑ. ΕΛΛΑΚ)
Σχολείο Ανοικτού Κώδικα ΕΛ / ΛΑΚ: e-Identity & e-Government
(Hλεκτρονική ταυτότητα στη Δημόσια Διοίκηση και Τοπική Αυτοδιοίκηση)
UAegean Center of Excellence (CoE) – Open Source Software in Transport
and Shipping
University of the Aegean
Dpt of Financial and Management Engineering & Dpt of Shipping and Transportation Services
Session: III
Stelios Lelis , i4M Lab, UAegean
Harris Papadakis, i4M Lab, UAegean
@ i-nformation M-anagement Lab
i4M Lab
2. i4M Lab
Ταυτότητα Σεμιναρίου
Το Πανεπιστήμιο Αιγαίου, στα πλαίσια του έργου Μονάδες Αριστείας
Ελεύθερου Λογισμικού / Λογισμικού Ανοικτού Κώδικα (ΕΛ/ΛΑΚ)1,
διοργανώνει Σχολείο Ανοικτού Κώδικα ΕΛ / ΛΑΚ με θέμα «e-Identity &
e-Government (Hλεκτρονική ταυτότητα στη Δημόσια Διοίκηση και
Τοπική Αυτοδιοίκηση)».
1 Το υποέργο Μονάδες Αριστείας ΕΛ/ΛΑΚ υλοποιείται στο πλαίσιο του έργου «Ηλεκτρονικές Υπηρεσίες για την Ανάπτυξη και
Διάδοση του Ανοιχτού Λογισμικού» του Προγράμματος «Ψηφιακή Σύγκλιση». Το έργο συγχρηματοδοτείται από το ΕΤΠΑ.
2
8. i4M Lab
Assignment 1
Ικανότητα ταυτόχρονης εξυπηρέτησης διαφορετικών SPs
Σκοπός είναι η μετατροπή της λειτουργικότητας του συστήματος STORK 2.0 ISS
έτσι ώστε μία εγκατάστασή του να μπορεί να εξυπηρετήσει ένα οποιοδήποτε
αριθμό από Παροχείς Υπηρεσίας -Service Providers (SPs) που υποστηρίζουν
διαφορετικές μεθόδους επικοινωνίας με το (υπο)σύστημα STORK2.0 ISS. Σε
κάθε διαφορετική ενεργοποίηση της υπηρεσίας του STORK2.0 ISS, ο κάθε SP
θα ορίζει, μαζί με οποιαδήποτε άλλη απαραίτητη πληροφορία, και την μέθοδο
επικοινωνίας που επιθυμεί (και βέβαια υποστηρίζει το σύστημα STORK2.0 ISS).
8
9. i4M Lab
Assignment 1 - Tasks
Μετατροπή request URL – Εισαγωγή καινούριας πληροφορίας
Μετατροπή configuration files (sp.properties)
Υλοποίηση wrap-around κλάσεων για τις υπάρχουσες κλάσεις
επικοινωνίας (json – web service)
Επιθυμητή η χρήση reflection
9
11. i4M Lab
Assignment 2
Σύνδεση με τρίτα συστήματα μέσω standardized interfaces
Η τρέχουσα υλοποίηση της υποστήριξης της επικοινωνίας με τον SP λειτουργεί
με τη χρήση json και customised Web Services. Σκοπός είναι η ανάπτυξη
interfaces διασύνδεσης με το (υπο)σύστημα STORK 2.0 ISS που να λειτουργεί
με βάση τα γενικά standards των Υπηρεσιών Ιστού (Web Services – WS).
Παράλληλα, θα οριστεί συγκεκριμένο WSDL που θα πρέπει να ακολουθούν όλοι
οι Παροχείς Υπηρεσίας-SPs που θέλουν να διασυνδεθούν μέσω Web Services.
11
12. i4M Lab
Assignment 2 - Tasks
Σχεδιασμός και ορισμός κατάλληλου WSDL specification
Απαραίτητος ορισμός τουλάχιστον δύο μεθόδων: retrieve & save
Ενημέρωση του κώδικα της Web Service επικοινωνίας με βάση το νέο
WSDL
Νέες ws.retrieveDummySP και ws.saveDummySP
12
14. i4M Lab
Assignment 3
Transaction Monitoring Tool
Σκοπός είναι η πρόσθεση στο (υπο)σύστημα STORK 2.0 ISS ενός
monitoring tool. Το υπο-σύστημα STORK 2.0 ISS θα εμπλουτιστεί με ένα
νέο module που θα επιτρέπει σε κάθε Παροχέα Υπηρεσίας SP, που
διαθετει τα κατάλληλα credentials, να προσπελάσει πληροφορίες για τις
συναλλαγές που είχε με την υποδομή STORK 2.0 μέσω STORK 2.0 ISS
(ημερομηνία και ώρα, ταυτότητα Authentication Request – Authentication
Response, Requested and Collected Identity Attributes κλπ.)
14
15. i4M Lab
Assignment 3 - Tasks
Σχεδιασμός και υλοποίηση Web Interface για το monitoring tool
Ορισμός χρηστών και δικαιωμάτων
Υλοποίηση μηχανισμού αυθεντικοποίηση χρήστη μέσω STORK
Παρουσίαση πληροφορίας
Πληροφορία SP Authentication Request (SP, token, timestamp, requested
attributes, selected country)
Result status για κάθε στάδιο του life cycle του request (including
timestamps, message κτλ.)
Πληροφορία SS Authentication Response (SP, token, timestamp, returned
attributes)
15